Dienstag, 31. Januar 2012

Lohnt sich eine Diskussion über ‚Grand Challenges‘?

Mein Kollege Peter Mertens schickte mir dieser Tage einen Institutsbericht [3], in dem er vorschlug, dass sich die Wirtschaftsinformatik mit dem Thema der Großen Herausforderungen (engl. Grand Challenges) befasse. Da ich mich früher auch mehrfach mit dieser Frage beschäftigt hatte, las ich seine Ausführungen mit Interesse. Ich kann diese Initiative nur begrüßen. Ich kann mir ehrlich gestanden nicht vorstellen, wieso ein Fach, dessen Forschungen ernst genommen werden wollen, darauf verzichten kann. In [2] schrieb ich:

Eine Diskussion von großen Herausforderungen könnte bewirken, dass auch bei uns der Begriff der Grundlagenforschung neu durchdacht wird. Diese hat manchmal den Beigeschmack eines weltabgewandten Bemühens, das Wissen auf Vorrat liefert, dessen Wert sich vielleicht später einmal herausstellt. Neues Wissen um seiner selbst willen zu generieren, mag zwar ein hehres Ziel sein. Die Frage ist nur, ob öffentliche Mittel nicht besser für Dinge eingesetzt werden, die zumindest langfristig Nutzen für die Menschheit versprechen. 

Die Arbeit von Mertens/Barbian wirft zumindest zwei Fragen auf  bzw. beantwortet sie nicht ganz vollständig oder befriedigend. Es sind dies einmal die Frage nach der Natur von Großen Herausforderungen und zum andern die Frage, was die Kerninformatik eigentlich in dieser Hinsicht tut.

Zur Natur von Großen Herausforderungen

Im Mittelpunkt sollte die Frage stehen, welche Ergebnisse von Forschung und Entwicklung man mittel- bis langfristig haben möchte. Es muss ein allseits anerkanntes Problem existieren, für das man mindestens eine Lösung haben möchte. Welche Lösung es zuerst schafft, ist sekundär, ebenfalls wie der Weg aussieht, der dort hinführt. Natürlich sollte das Nutzen-Kosten-Verhältnis nicht zu schlecht sein. Als Kosten sind hier an erster Stelle die Kosten der Anwendung gemeint, aber auch die F&E-Kosten sollten nicht den üblichen Rahmen sprengen.

In Tab. 1 habe ich drei der Initiativen aus der Informatik nebeneinandergestellt, die auch Mertens erwähnt. Aus Deutschland stammt der linke Vorschlag von ITG und GI/FB6 für die Technische Informatik. Aus England stammt der Informatikvorschlag in der Mitte. In der rechten Spalte ist der Vorschlag von Mertens/Barbian wiedergegeben. Ich habe diese Darstellung gewählt, weil sich daran gut zeigen lässt, wo es Überlappungen gibt. In der Aufstellung habe ich drei Überlappungspaare identifiziert. Zwei davon betreffen Technische Informatik und Informatik, eine davon Technische Informatik und Wirtschaftsinformatik. Das ist zwar wenig, aber kein Grund zur Kritik.


 
      Tab. 1: Vergleich von drei Vorschlägen


Die zwei deutschen Vorschläge enthalten Beispiele, bei denen man den Eindruck hat, dass die Art der gewünschten Lösung im Vordergrund stand und nicht das Problem. Bei der technischen Informatik sind dies die Nummern 4, 6 und 7. Bei der Wirtschaftsinformatik ist es Nummer 6. Nur so viel: Es ist kein Wertmaßstab für eine Lösung, ob sie menschenähnlich ist oder nicht. Die Nachahmung der Natur kann bei der Findung einer Lösung manchmal mehr stören als helfen. Das klassische Beispiel ist das Fliegen. Der Mensch lernte erst wirklich fliegen, als er sich von dem Vorbild des Vogelflugs freimachte.

Wo sieht die Kerninformatik ihre Großen Herausforderungen?

Der hier zitierte Vorschlag von Hoare/Milner steht für die Kerninformatik. Schon bei seiner Veröffentlichung vor sieben Jahren wurde Kritik laut. Es seien eher Themen aus der Biologie aufgelistet als solche, die Informatiker lösen können. Würde man weitere Themen aus der Informatik hinzufügen, kämen vermutlich auch mehr Überlappungen mit den beiden andern Gebieten zustande. Eine Überlappung muss nicht bedeuten, dass hier Doppelarbeit stattfindet. So kann es unterschiedliche Lösungen für dasselbe Problem geben, etwa eine in Hardware oder eine in Software.

Ein Vorschlag, der für die Informatik stehen kann, muss sich in zweierlei Hinsicht von denen der ITG und der Wirtschaftsinformatik unterscheiden. Er darf sich nicht auf Probleme beschränken, die nur mittels Hardware gelöst werden können. Anderseits darf er seine Relevanz nicht aus einem einzelnen Anwendungsgebiet oder einer Branche ableiten. Viel schwieriger ist es, Probleme zu identifizieren, an deren Lösung nicht bereits gearbeitet wird. Dazu gehören alle Probleme, die Praktiker interessieren. Sie halten ohnehin nur Ausschau nach Technologien, die spätestens in 4-5 Jahren Marktreife erlangen. Tab. 2 ist das letzte Beispiel einer solchen Technologie-Prognose, die ich wagte. Wieweit sie eintraf, will ich hier nicht diskutieren.



    Tab. 2: Technologie-Prognosen von 2006 [1]

Ohne einer eventuellen Diskussion innerhalb der Informatik vorzugreifen, möchte ich dennoch einige Kandidaten für Große Herausforderungen nennen. Sie sollen hier hauptsächlich zur Illustration dienen.
  • Bedarf, Ausnutzung und Speicherung elektrischer Energie für alle Informatikgeräte um eine Größenordnung verbessern. Beispiel: Notebook mit Knopf-Batterie für mehrere Jahre.
  • Globale Positionsbestimmung mit Genauigkeit im Millimeterbereich ermöglichen. Beispiel: Fernmontage oder chirurgischer Eingriff
  • Sprachübertragung und –erkennung über große Entfernungen (z. B. Kontinente) mit automati-scher Identifikation des Sprechers oder Senders
  •  Interpretation der Gehirnströme zwecks Steuerung von Geräten und Erfassung von Gedanken, mit besonderem Bezug zu Alsheimer-Erkrankungen
  • Interpretation von Texten und Bildern vermöge eines sukzessiven Aufbaus semantischer Mo-delle
  • Selbststeuerung von Maschinen bei der Wissensakquisition und dem selektiven Vergessen
  • Erstellen von Programmen ohne Programmierung, ausgehend von Beispielen
Diese Liste lässt sich fortsetzen. Interessant ist, was nicht erscheint. Dazu gehören bekannte Forschungsschwerpunkte.

Wirtschaftliches Potenzial

 
Es wäre falsch, von den Hochschulen oder gar der Regierung zu erwarten, dass sie das ökonomische Potenzial von Erfindungen erkennen und auswerten können. Zum Schluss des Beitrags [2] hieß es:


Ein Hochlohnland wie unseres hat nur dann eine Chance im weltweiten Wettbewerb zu bestehen, wenn hier neue Ideen und neue technische Konzepte schnellstmöglich in Innovationen überführt werden. Niemand kann sich dauernd nur an anderen bereichern, ohne dass er eigene Beiträge leistet. In der modernen Wirtschaft sind Innovationsförderung und Technologie-Management nichts weniger als Teil einer Überlebens-Strategie. … Das technische und wirtschaftliche Potenzial der Informatik und Informationstechnik ist riesig. Wir haben gerade erst damit begonnen, es auszuschöpfen. Allerdings müssen wir das Problem lösen, mehr Visionen in Produkte zu überführen. Dafür müssen diese Visionen aber in die Köpfe von Machern kommen, also von Leuten, die nicht nur darüber reden. Gemeint sind mutige, noch etwas hungrige Unternehmer, die sich Visionen zu Eigen machen.

Das Beispiel von Steve Jobs und Apple, das ich in letzter Zeit mehrmals hervorgehoben habe, beweist, dass der erfolgreiche Unternehmer nicht selbst alle nötigen Erfindungen machen muss. Er muss vielmehr erkennen, welche Erfindungen zur Lösung welcher Probleme nutzbar gemacht werden können. Er muss wissen, oder ein Gefühl dafür haben, was Menschen sich wünschen. Große Herausforderungen sind für Unternehmen günstigstenfalls als Warnzeichen zu werten.


Literatur

  1. Endres, A.: Über Wesen und Wert technischer Prognosen in der Informatik. In: Visionen der Stuttgarter Informatik. Broschüren des Informatik-Forum Stuttgart 2006, 83-92
  2.  Endres, A.: Visionen und Herausforderungen in der Informatik. Informatik – Forschung und Entwicklung‘ (IFE), Heft 21,3 (2007), 213-218
  3. Mertens, P., Barbian, D.: Materialien zum Forschungs- und Diskussionsthema „Grand Challenges“. Universität Erlangen-Nürnberg, Wirtschaftsinformatik I; Arbeitspapier 1/2012

Mittwoch, 25. Januar 2012

Von ‚Toy Story‘ zu ‚Avatar‘ – eine Auswahl computer-generierter Filme

Im letzten Beitrag über Steve Jobs wurde erwähnt, dass die Firma Pixar unter seiner Leitung 1995 den Film ‚Toy Story‘ produzierte. Hier lebte er sein Faible aus, Kunst und Technik zusammenzuführen. Es war dies der Anfang einer Serie eines neuen Typs von Filmen, die vollständig aus mit Hilfe von Computergrafik erstellten Szenenfolgen bestanden. Sie unterscheiden sich von Filmen, in denen nur einzelne Szenen oder Teile eines Bildes (etwa der Hintergrund) mechanisch erstellt wurden. Ein bekanntes Beispiel dieser Kategorie ist ‚Jurassic Park‘ von 1993. Einen neuen Akzent setzte im Jahre 2009 der Film ‚Avartar‘. Im Folgenden werden einige Höhepunkte dieser 15-jährigen Filmgeschichte dargestellt.


(Dieser Beitrag entstand dank maßgeblicher Unterstützung meines Enkels Marcus, 15 Jahre alt)


                                                                 ***

Titel: Toy Story 1; Jahr 1995, Regisseur: John Lasseter; Studio: Pixar; Länge: 90 Min.; Umsatz (in US $): 200
 
Inhalt: Im Kinderzimmer streiten sich Spielzeuge darum, welches das liebste ihres Besitzers ist. Bei einem Ausflug im Auto der Familie geht der Streit weiter. Dabei geraten zwei der Spielzeuge in fremde Hände. Als ihnen die Flucht gelingt und sie zur Wohnung ihres kindlichen Eigentümers zurückkehren, ist die Familie ausgezogen.

 
Technik: Zur Bildsynthese (Rendering) des Filmes wurde eine Renderfarm, bestehend aus 117 Rechnern der Firma Sun verwendet. Der fertige Film belegte 500 GB und wurde auf 1200 Compact Disks (CDs) zwischengespeichert.

 
Bewertung: Sehr einfache aber rührselige Story, von Technikern erfunden. Die Erwachsenen freuen sich über die technische Perfektion, mit der sie erzählt wird.


                                                  
                                                                 ***

Titel: Herr der Ringe; Jahr: 2001, 2002, 2003; Regisseur: Peter Jackson; Länge: Teil 1: 178 Min; Teil 2: 179 Min; Teil 3: 201 Min; Umsatz (in Mio.US $):  870 (1. Teil), 930 ( 2. Teil), 1.100 (3. Teil)
 
Inhalt: Der Dreiteiler basiert auf dem Buch von J.R.R Tolkien und spielt in einer fiktiven Welt, die von Orks, Elben, Trollen und etlichen anderen Fantasiegestalten bewohnt wird. Ein mächtiger Bösewicht namens Sauron will die Macht über diese Welt an sich reißen und kann nur zerstört werden indem man einen Ring auf dem seine Macht beruht zerstört und zwar in einem Vulkan in feindlichem Territorium. So beginnt eine lange Reise für Frodo und seine Freunde, die eher durch Zufall in die Geschichte hineingezogen werden.

 
Technik: Der Film ist zwar mit richtigen Darstellern gedreht, jedoch bedient er sich sämtlichen Computereffekten von Explosionen bis hin zu mächtigen Naturgewalten. Auch viele der Fantasie gestalten wurden komplett computeranimiert.

 
Bewertung: Die Filme dieser Trilogie gehören zu meinen liebsten (Marcus) und dürfen in keiner DVD-Sammlung fehlen. Die Filme sind spannend bis zum Ende, die gigantischen Schlachten sind atemberaubend und J.R.R Tolkiens Bücher wurden perfekt umgesetzt.


                                                                ***
 

Titel: Ice Age; Jahr: 2002; Regisseur:  Chris Wedge, Carlos Saldanha; Studio: Blue Sky Studios; Länge: 81 Min.; Verkaufte Kopien: ?; Umsatz (in Mio. US $): ?
 
Inhalt: Wie der Name schon sagt, geht es um die Eiszeit. Die Hauptpersonen sind ein Mammut, ein Faultier und ein Säbelzahntiger. Der Tiger soll das Kind eines Urzeitmenschen entführen, jedoch gerät es zu dem Mammut Manfred und dem Faultier Sid. Der Säbelzahntiger Diego schließt sich den beiden an, unter dem Vorwand ihnen zu helfen, das Kind zurück zu bringen. Während ihrer Reise befreunden sich die Tiere und als der Rest von Diegos Rudel sie angreift, stellt er sich auf die Seite seiner neuen Freunde und sie übergeben zum Schluss das Kind seiner Familie.

 
Technik: Der Film ist komplett computer-animiert. Statt auf Tieren und deren Bewegungen, wie es oft bei ähnlichen Filmen üblich ist, basiert der Film nur auf Zeichnungen. Eine Besonderheit ist das Faultier Sid, das auf seinen Sprecher, Otto Walkes, zugeschnitten wurde. Der 4. Teil wurde sogar in 3D gedreht und kommt dieses Jahr ins Kino.

 
Bewertung: Die Darsteller des Films sind einem gleich sympathisch und sind gut animiert. Die Idee des Films wurde gut umgesetzt und eignet sich immer für einen  schönen Familienfilmabend.
 

                                                                 ***
 

Titel: Findet Nemo; Jahr: 2003, Regisseur: Andrew Stanton, Lee Unkrich; Studio: Pixar; Länge: 96 Min.; Umsatz (in Mio. US $): 900
 
Inhalt: Der kleine Clownfisch Nemo wächst  im Pazifischen Ozean auf. Sein Vater Marlin versucht ihn so sehr vor den Gefahren des Meeres zu schützen, dass er ihn schließlich verliert. Nemo wird von Menschen gefangen. Darauf bricht Marlin in die Weiten des Ozeans auf, um seinen Sohn wiederzufinden. Unterwegs erlebt er allerlei Abenteuer, die ihn schließlich zu einem mutigen Helden werden lassen. Auf der Suche nach Nemo trifft er viele andere Fische und Meerestiere.

 
Technik: Das Hauptproblem bestand darin, die Unterwasserwelt wirklichkeitsgetreu darzustellen. Das Meer wurde durch im Wasser schwimmende Partikel, zahlreiche Lichtüberlagerungen und die einzelnen Strömungen nachempfunden. Daneben musste den einzelnen Fischen durch Aussehen und Sprechweise eine unterscheidbare Persönlichkeit verliehen werden.

 
Bewertung: Nach Ausgaben von etwa 90 Mio. spielte der Film etwa 900 Mio. US$ ein. Er erzielte den größten Teil seines Umsatzes durch den Verkauf als DVD, Er gilt als einer der erfolgreichsten Trickfilme. Auch weckte bzw, verstärkte er das Interesse der Öffentlichkeit an der Meeresbiologie.


                                                               ***

Titel: Transformers; Jahr: 2007; Regisseur: Michael Bay; Länge: 138 Min.; Verkaufte Kopien: 14 Mio.; Umsatz (in Mio. US$): 700

 
Inhalt: Ein mächtiger Würfel, der die Macht hat Leben zu erschaffen, verirrt sich im All und landet schließlich auf der Erde. Die Macht des Würfels lockt Außerirdische an, die ihn zum Guten oder zum Bösen verwenden wollen. Die Bewohner der Erde wissen nichts von den anrückenden Außerirdischen und leben ihren gewöhnlichen Alltag. Die Hauptperson, Sam Witwicky, ein 16 jähriger Schüler, bekommt sogar sein erstes Auto. Doch die Freude hält sich in Grenzen, als er nur ein verrostetes Exemplar abbekommt. Während dessen gibt es schon erste Auseinandersetzungen mit den Weltraumbewohnern. Als Sam von einem gigantischen Roboter angegriffen wird und sich sein Auto ebenfalls in einen „transformiert“, merkt Sam schnell das übernatürliche Dinge ihren Lauf nehmen. Sams Auto gehört zu den guten Transformers, die ein Artefakt von Sam brauchen, das seinem Großvater gehörte. Mit dem Artefakt finden die Transformers das Versteck des Würfels und ein Wettlauf mit der Zeit beginnt.

 
Technik: Im Vergleich zu anderen Filmen wurde in diesem Film weniger Technik eingesetzt. So wurden die Transformers mit Attrappen dargestellt und nur einige Bewegungen wurden am Computer bearbeitet. Raketen, Laserkanonen und die Anfangssequenz im All sind hingegen komplett auf virtueller Basis entstanden. Sie machen jedoch nur einen geringen Teil des Films aus.

 
Bewertung: Die Story von Transformers ist einfach gestrickt und nicht unbedingt überzeugend. Wenig Handlung und viel Aktion ist hier die Devise. Ganz klar im Vordergrund stehen in diesem Film auch die Transformers, die sich zahlreiche Gefechte leisten. Alles in allem nur etwas für hartgesottene Action Fans, für die eine flüssige, logische Geschichte nicht an erster Stelle steht.


                                                          ***

Titel: Avartar - Aufbruch nach Pandora; Jahr 2009, Regisseur: James Cameron;  Länge: 178 Min.; Umsatz (in Mio. US $): ca. 2.000

 
Inhalt: Der Film spielt in naher Zukunft. Die Menschen haben einen fruchtbaren Jupitermond namens Pandora entdeckt, auf dem seltene Rohstoffe vorkommen. Doch der Planet ist bereits von einer anderen Spezies, den Na'vi, besiedelt. Um eine friedliche Lösung zu finden, wird ein Forscherteam eingesetzt. Durch moderne Technik schaffen die Wissenschaftler Kopien von den Na'vi, die sie fremdsteuern können. Mittendrin ist Jake Sully, ein Veteran, der den Platz seines Bruders einnehmen und dessen Avatar steuern soll. Doch Jake verliebt sich in eine Ureinwohnerin. Als die restlichen Menschen der Station ausrücken, um den Krieg mit den Na'vi aufzunehmen, muss Jake sich entscheiden, auf wessen Seite er steht.

 
Technik: Fast der ganze Film wurde animiert und mit speziell für diesen Film entwickelten 3D-Kameras gefilmt. Mit Produktionsausgaben über 230 Millionen ist er der teuerste Film, der jemals gedreht wurde. Der Film setzte neue Maßstäbe, die auch Jahre später unübertroffen bleiben.

 
Bewertung: ‚Avatar‘ ist einer der bekanntesten Science-Fiction-Filme aus Hollywood. Laut dem Guiness ‚Buch der Rekorde‘ ist er der erfolgreichste Film aller Zeiten. ‚Avatar‘ ist einer der besten Filme, die ich (Marcus) je gesehen habe und ist auf jeden Fall sehenswert. Die Darsteller spielen überzeugend, die Kameraführung ist gut und die Computeranimationen sind grandios. Der Umsatz als DVD und das Zusatzgeschäft mit Spielen und Souvenirs übertrifft bei weitem das Geschäft an den Kinokassen.


                                                          ***
 

Titel: Toy Story 3; Jahr: 2010; Regisseur: Lee Unkrich; Studio: Pixar; Länge: 103 Min; Umsatz: (in Mio. US $): 920
 
Inhalt: Wie in den Vorgängerfilmen geht es mal wieder, wie der Name schon sagt, um das Spielzeug. Das Besondere in diesem Film ist die Tatsache, dass das Spielzeug lebendig ist, reden kann und viele menschliche Züge zeigt. Das gesamte Spielzeug, um das es sich dreht, gehört einem verspielten Jungen, der die Trilogie über immer  älter wird und im dritten Teil bereits studiert und beschließt sein gesamtes Spielzeug einem Kindergarten zu vermachen, was sich für die eingeschworene Spielzeugcrew als neues Abenteuer entpuppt.

 
Technik: Der Film ist, wie bereits auch die Vorgänger, komplett computer-animiert. Jedoch gibt es als Zugabe den Film im Kino in 3D zu sehen.

 
Bewertung: Das Besondere am ersten Teil war die Idee dem Spielzeug Leben einzuhauchen. Die Geschichte an sich ist dann aber doch für die Jüngeren gedacht, dafür aber ansprechend und humorvoll. Trotz allem ist die Toy Story Trilogie gelungene Familienunterhaltung und auch der dritte Teil bleibt dem Charakter und Humor der Vorgänger treu.

 
Diese Auswahl ist nur ein Anfang. Werden uns weitere Filme dieses Genre bekannt ode
r vorgeschlagen, beschäftigen wir uns gerne damit und schreiben (vielleicht) etwas dazu.

Samstag, 21. Januar 2012

Wahrheit in der Wissenschaft - Gedanken zu Karl Popper

Hans Diel aus Sindelfingen schrieb am 11.1.2012

Ich habe ganz allgemein ein Problem mit den Philosophen. Das meiste, was ich von Philosophen gelesen oder gehört habe, war zwar sehr geistreich formuliert, aber nach meinem Empfinden entweder wenig relevant oder von zweifelhaften Wahrheitsgehalt. Es gab auch einige Ausnahmen wie z.B. Popper oder auch das Philosophische Quartett im Fernsehen.

Vermutlich bin ich hier wieder mal zu subjektiv. Aber das ist im Grunde der Kern des Problems. Da philosophische Theorien im Allgemeinen nicht so exakt beweisbar (oder falsifizierbar) sind wie mathematische oder physikalische, bleibt mir am Ende zu viel Raum (oder Notwendigkeit?) für Subjektivität. Da ich aber meiner Subjektivität misstraue, kann ich das Studium solcher Theorien auch bleiben lassen.

Wenn [von Thomas Metzinger] gesagt wird, dass "das religiöse Menschenbild falsifiziert wurde" würde mich interessieren, was genau von wem wie falsifiziert wurde. Ist das eine Art negativer Gottesbeweis? Oder wird hier der Begriff "falsifizieren" deutlich lockerer verstanden als bei Popper?


Peter Hiemann aus Grasse antwortete am 14.1.2012

Anders als „klassische“ Philosophen, tun sich Philosophen des 21. Jahrhundert ziemlich schwer, Beiträge zu Erkenntnisprozessen zu liefern. Sie versuchen mit wenig Erfolg, den Eindruck zu erwecken, Experten des Geistigen zu sein. Sie reklamieren für ihren Berufsstand,  geistige Brücken zwischen Wissensgebieten konstruieren zu können (auch zwischen Wissenschaft und Religion), aber ich habe den Eindruck, dass sie viel „Wolkiges“ (Wortwahl der ZEIT) hin und her schieben. Diese Ansicht ergibt sich, wenn ich zum Beispiel lese, wie der Philosoph Manfred Frank seinem Kollegen Peter Sloterdijk in einem offenen Brief in der ZEIT vorwirft, „Geschweife und Geschwefel“ zu produzieren und zu verbreiten. Das klingt so: „Heidegger hat den Humanismus wie so viele Denker seiner Generation (auch Karl Barth gehört zu ihnen) zu überwinden versucht - das sei ihm, denken Sie, gutgeschrieben. Er hatte schon in Sein und Zeit Philosophie nicht mehr vom Subjekt, dem Agenten der Menschlichkeitsideologie, sondern vom Sein aus zu begründen unternommen. Aber noch hielt das "Dasein" – der fundamental-ontologische Nachfolgebegriff für "Subjekt" oder "Mensch" – eine bedeutende Stellung, die auch in den Schriften nach der "Kehre" nicht aufgegeben wird. So bleibt das Dasein im Brief über den ,Humanismus' zwar "nicht der Herr des Seienden", wohl aber der "Hirt des Seins". Diese ontologische "Pastorale" gilt es nunmehr - meinen Sie - durch Radikalisierung der Absage an den Humanismus zu entharmlosen, aber ebenso, dass keinerlei Moral die Berufung des Hirten zur Wahrung seiner Wahrheit normativ anleitet.“ Ob Sloterdijk genauso gut „schweifen“ und „schwefeln“ kann, kann und will ich nicht kommentieren.

Thomas Metzinger hebt sich wohltuend von der Gruppe von Philosophen ab, die viel „Wolkiges“ hin und her schieben. Das gleiche trifft auf Karl Popper zu. Popper hat sogar im Vorwort des Buches „Das Ich und sein Gehirn“ geäußert, dass er „schon immer von der herrschenden philosophischen Schule unbefriedigt war und stark an den Naturwissenschaften interessiert ist“.

Es ist lange her, dass ich mich mit Poppers Philosophie ein wenig beschäftigt habe. Das geschah im Rahmen meiner Studien über das menschliche Gehirn. John Eccles und Karl Popper haben das oben erwähnte Buch gemeinsam veröffentlicht. Teil 1 enthält Poppers Theorien und Weltsicht, in Teil 2 beschreibt Eccles seine neurologischen Erkenntnisse und Weltsicht, Teil 3 enthält Dialoge zwischen beiden Autoren. Für mich war auch von Interesse, dass im Vorwort des Buches ein wichtiger Unterschied zwischen den Autoren erwähnt wird: „Er betrifft den religiösen Glauben. Einer von uns beiden (Eccles) glaubt an Gott und an ein Übernatürliches, während der andere (Popper) als Agnostiker bezeichnet werden könnte.“

Karl Popper glaubt, dass die Objekte und Vorgänge in der Welt „beträchtlich klarer gemacht werden können, wenn wir eine Dreiteilung der Welt einführen. Da gibt es zunächst die physische Welt – das Universum physischer Gegenstände. Zweitens gibt es die Welt psychischer Zustände, einschließlich der Bewusstseinszustände, der psychischen Dispositionen und unbewusster Zustände. Doch es gibt noch eine dritte Welt, die Welt der Inhalte des Denkens und der Erzeugnisse des menschlichen Geistes.“
John Eccles und Karl Popper waren hervorragende Startpunkte für meine weiteren Studien. Karl Popper hat sich in dem oben genannten Buch auch zum Thema der Falsifizierbarkeit geäußert. Im Dialog mit Eccles zum Problem des Bewusstseins bei Tieren, einigen sich beide darauf, dass „jede Vermutung darüber nicht falsifizierbar ist, jedenfalls derzeit nicht. Und eben weil sie nicht falsifizierbar oder prüfbar ist, ist sie metaphysisch“. Popper hält allerdings metaphysische Hypothesen für wichtig, weil Wissenschaftler beim praktischen Forschen von dem geleitet werden, was Popper „metaphysisches Forschungsprogramm“ nennt.

Metzinger sagt auf Grund des heutigen Wissens über menschliche neuronale Prozesse des Zentralnervensystems, dass "das religiöse Menschenbild falsifiziert wurde". Das sagt nicht nur Metzinger sondern die breite Mehrheit aller an der Erforschung des Gehirns beteiligter Wissenschaftler. Auch Systemtheoretiker wie Niklas Luhmann sehen keinen Bedarf an übernatürlichen Prozessen. Dabei handelt es sich nicht um „eine Art negativer Gottesbeweis“ sondern es wird lediglich postuliert, dass man für die Erklärung der Ereignisse und Prozesse im Universum, in der Natur unseres Planeten, im menschlichen Gehirn und in den menschlichen Gesellschaften auf die Existenz eines kreativen Gottes verzichten kann. Ich denke, dass Metzinger den Begriff "falsifizieren" im Sinne von Poppers „metaphysischen Forschungsprogramms“ benutzt.


Am 17.1.2012 schrieb ich an Hans Diel und Peter Hiemann:

Mit Popper habe ich mich vor etwa 10 Jahren zuletzt beschäftigt. Er hatte 1934 durch die Forderung der Falsifizierbarkeit eine neue Wissenschaftstheorie geschaffen. Eine wissenschaftliche Aussage hat danach immer nur vorläufigen Charakter. Jedwede positive Evidenz kann eine Theorie nur wahrheitsähnlicher machen. Durch eine einzige negative Aussage oder ein Gegenbeispiel kann sie widerlegt, also falsifiziert werden.

Wissenschaftlich sind nur solche Theorien, die auch falsifizierbar sind. Damit wandte er sich z.B. gegen Freuds Psychologie (und andere Ideologien). Sie kann keine Voraussagen machen, die man durch Experimente widerlegen kann. Popper bezeichnete seine Philosophie als ‘kritischen Rationalismus‘.

Vielen Leuten erschien das Kriterium zu hart. Man solle auch Dinge für wahr halten dürfen, für die Experimente für uns Menschen zu schwierig oder unmöglich sind. Damit kämen z.B. metaphysische Aussagen wieder ins Spiel. Das träfe unter anderem auf Poppers Theorien selbst zu.

Am 18.1.2012 schrieb mir Hans Diel:


auch ich war begeistert von Poppers Forderung nach Falsifizierbarkeit von wissenschaftlichen Theorien, glaube aber auch mittlerweile, dass man die Forderung bei bestimmten Themen abschwächen muss. Ich sehe drei Aspekte die eine Abschwächung erforderlich machen können:

1. Das Thema der entsprechenden Wissenschaftsdisziplin: Bei bestimmten Wissenschaften (bestes Beispiel Psychologie) ist der Gegenstand der Forschung schon so schwer fassbar, dass eine Falsifizierung der Aussagen auch sehr schwierig ist. Es sei denn, man betrachtet die Bestätigung von Vorhersagen als Verifizierung. Derartigen Theorien (Psychologie, Theologie) das Prädikat "Wissenschaft" abzuerkennen, bin auch mich manchmal geneigt. Dies wäre aber vermutlich doch unfair. Aber, letztlich ist dies nur eine Frage der Definition von "Wissenschaft".

2. Die Methoden, mit denen verifiziert oder falsifiziert wird: In der Psychologie arbeitet man ( um den Anspruch der Wissenschaftlichkeit aufrecht zu erhalten) sehr viel mit statistischen Auswertungen. Die Statistiken werden entweder als Grundlage für Theorien oder als Bestätigung für Theorien benutzt. Statistische Korrelationen sind jedoch, wie mathematisch Gebildete wissen, von zweifelhafter Beweiskraft. Wann eine statistische Korrelation eine Verifizierung oder Falsifizierung darstellt ist oft ziemlich subjektiv. Für unsinnig halte ich es, eine Aussage deswegen als falsifiziert zu betrachten, weil sie in einer Theorie nicht benötigt wird (siehe "das religiöse Menschenbild wurde falsifiziert" [bei Metzinger]).

3. Praktikabilität der Verifizierung: Die Physik war für mich immer die typische Wissenschaft  bei der die Forderung nach Falsifizierbarkeit einer Theorie absolut zu gelten hat. Falsifizierung oder Verifizierung bedeutet in der Physik die Durchführung von Experimenten. Beispielsweise ist für mich die "Vielweltentheorie" mangels Falsifizierbarkeit unwissenschaftlich. Neuerdings habe ich aber auch Zweifel, ob man nicht auch für die Physik das Kriterium der Falsifizierbarkeit etwas abschwächen muss. Die Stringtheorie (die ich sehr skeptisch sehe ) sollte m.E. nicht deswegen abgelehnt werden, weil es auf absehbare Zeit nicht möglich sein wird, sie durch Experimente zu verifizieren oder zu falsifizieren.

Zusammengefasst, die Forderung nach Falsifizierbarkeit einer wissenschaftlichen Theorie halte ich nach wie vor für sehr wichtig. Aber es gibt Gründe, dabei gelegentlich gewisse Ausnahmen oder Abschwächungen zu erlauben. Diese Ausnahmen sollten jedoch auf keinen Fall zu einer generellen Ablehnung der Forderung führen.


Ebenfalls am 18.1.2012 schrieb Peter Hiemann:


Als Normalsterblicher finde ich mich damit ab (und bin zufrieden), dass sich viele Menschen der gleichen Aufgabenstellung widmen: zu versuchen, die Welt und die menschliche Existenz zu deuten und zu verstehen. Für Experten stellt sich allerdings die Frage, worin sich professionelle Tätigkeit von Vertretern verschiedener Fachbereiche unterscheiden. Eine offensichtliche Antwort lautet: Wissenschaftler, Philosophen und Theologen widmen sich speziellen Fachgebieten und verwenden spezielle Methoden für Theoriebildung, Experimente (auch Gedankenexperimente) und Analysen. Falls Fachgebiete mit Methoden der Mathematik behandelt werden können, dient auch die Mathematik indirekt der Suche, die Welt zu verstehen. Die Vertreter aller Fachgebiete sind wohl auch aufgefordert anzugeben, mit welchen Methoden ihre Theorien auf Richtigkeit überprüft werden können.

Entzieht sich ein Fachgebiet jeder Überprüfung, gilt es als metaphysisch und gerät unter ständigem Druck, sich akademisch durchsetzen zu müssen (Budgets zu rechtfertigen). Die Mehrheit der Physiker verlassen sich bei ihrer Arbeit auf  Aussagen, die mit mathematischen Methoden Vorhersagen physikalischer Ereignisse ermöglichen. Robert B. Laughlin vertritt allerdings die Ansicht, dass die Physik  wohl zusätzliche (neue?) Methoden braucht, um auch Naturphänomene zu berücksichtigen, die nicht berechenbar sind. Bei einigen Physikern scheinen Prinzipien der Evolution und Methoden der fraktalen Geometrie  eine Rolle zu spielen (Gerd Binning: „Aus dem Nichts“, Serie Piper, 1992). Für die meisten Fachgebiete gelten empirische Aussagen als wissenschaftlich begründet, sofern sie durch verallgemeinerungsfähige Erfahrungen (nicht notwendig durch Messungen) untermauert werden können. Viele Experten einiger dieser Fachgebiete glauben, dass statistische Methoden ihre Aussagen glaubwürdiger machen.

Mein Hinweis auf Karl Poppers Aussagen über Falsifizierbarkeit und ein „metaphysisches Forschungsprogramm“ basiert auf dessen Zitaten aus dem Buch „Das Ich und sein Gehirn“. Meine Aussage, dass Metzinger den Begriff "falsifizieren" im Sinne von Poppers „metaphysischen Forschungsprogramms“ benutzt haben könnte, entbehrt jeder Begründung und ist vermutlich falsch, weil die Erkenntnistheoretiker seit Popper längst neue Wege gegangen sind. Wie Metzinger tatsächlich über den Verlust religiöser Vorstellungen denkt, klingt so: „Mehr und mehr Menschen allerdings könnten sich insgeheim sagen: „Ich verstehe nicht, worüber all diese Experten aus der Hirnforschung und diese seltsamen Bewusstseinsphilosophen reden, aber das Endergebnis scheint ziemlich klar zu sein. Die Katze ist längst aus dem Sack: Wir sind Genkopierer, Bioroboter, die im Verlauf der Evolution auf einem einsamen Planeten in einem kalten und leeren Universum entstanden sind. Wir haben ein Gehirn, aber keine unsterbliche Seele, und nach rund siebzig Jahren fällt der Vorhang. Es wird kein Leben nach dem Tod geben, keine Strafe und keine Belohnung, keine Preisverleihung für gute schauspielerische Leistung (wie Woody Allen einmal gesagt hat), und letztlich ist jeder von uns allein. Ich habe die Botschaft verstanden, und Sie können sich darauf verlassen, dass ich mein eigenes Verhalten daran anpassen werde.“

Die populäre Metapher vom Gehirn als Computer und vom Mensch als Genkopierer bzw. Bioroboter ist nicht nur missverständlich, sondern schlichtweg falsch. Stattdessen bietet es sich an, das Zentralnervensystem und biologische Organismen mit Systemen zu vergleichen, die durch kommunikative Eigenschaften zu evolutionären Veränderungen fähig sind (ähnlich wie Humberto Maturana und Niklas Luhmann). Diese Vorstellung lässt genügend Raum für fortdauernden individuellen Erkenntniserwerb während eines Lebenslaufs. Erkenntniserwerb und Erkenntnistheorie ist nach meinem Verständnis eine unendliche Geschichte. Wissen, Hoffnung und Glaube, aber auch Unwissen, Not und Verzweiflung, haben in dieser Geschichte eine wesentliche Rolle gespielt und werden sie immer auf vielfältige Weise spielen. Unberechenbare Individuen spielen ihre Instrumente der verschiedenen Epochen nach Weisen vielfältiger Kulturen und Institutionen im Rhythmus vielfältiger Umstände.

 
In einem Telefonat am 23.2.2012 bemerkte Hartmut Wedekind, dass nach seiner Ansicht Karl Popper sowohl von meinen Blogpartnern, als auch von vielen andern Leuten maßlos überschätzt würde. Popper sei Psychologe und kein Logiker. Demgegenüber sei Thomas Kuhn viel wichtiger. Der von Kuhn eingeführte Begriff des Paradigmenwechseln sei viel bedeutender als der Poppersche Falsifikationismus. Mein Versuch, Popper zu verteidigen, führte schließlich (mit einigen Tagen Verzögerung) zu einer sehr lesenswerten Replik, die ich ungekürzt wiedergebe.

Am 27.2.2012 schrieb Hartmut Wedekind aus Darmstadt:

Der Streit  zwischen Empirismus und Apriorismus, den wir führen, ist uralt. Deshalb eigentlich nutzlos. Die geschichtlich älteren, meist unbiegsamen Empiristen sind nicht aus einem „dogmatischen Schlummer“ (Kant) zu erwecken. Das artet ja manchmal jenseits der Aufklärung zu einem Religionskrieg aus. Popper, das muss ich zugeben, war ein erster Lichtblick in dieser dunklen, rein  empirischen Welt. Popper hatte bei Carnap und dem Wiener Kreis viel gelernt, Und Carnap war ein Schüler des großen Gottlob Frege aus Jena (1848 -1925). Wenn man sich nicht einigen kann, sollte man versuchen, sich über seine „Ahnherrn“ zu unterhalten. Das ist ein bekanntes Rezept zur Überwindung eines Hiatus. Also unterhalten wir uns (später) über Frege, neben Russel, der Ahnherrn der modernen Sprachphilosophie.

Gibt es „vernünftige Festsetzungen“, ist der Kern des Streits. Ich schiele gerade in die „Logische  Propädeutik“ von Kamlah/Lorenzen und hole da einiges heraus, weil‘s gelungen formuliert wurde.
Da der Empirismus “vernünftig“ und „empirisch-wissenschaftlich“ gleichsetzt, kann es für ihn keine „vernünftigen“ Festsetzungen geben, sondern nur „bloße Festsetzungen“, sog. „ willkürliche Konventionen“.

Festsetzungen über die sprachlichen Mittel, um die es uns geht, sind Normen für unser wissenschaftliches Sprechen. Es sind Redenormen - ein Spezialfall von Handlungsnormen. Während der Apriorismus behauptet, dass es (mehr oder weniger) vernünftige Normen gibt, will sich der Empirismus jeder Normsetzung enthalten: Alle Verantwortung für Normen wird dem „Subjekt“, dem Einzelnen, der nach dieser Norm handelt, zugeschoben. „Alle Normen sind subjektiv“ , das ist eine geeignete Formulierung des empiristischen Hauptdogmas. Sie sagen statt „subjektiv“ eben „relativ, was aber gleichsinnig aufzufassen ist. Man könnte auch sagen „relativ zum Subjekt“. Der logische Empirismus (à la Popper, ein Lichtblick in der rein empirischen Dunkelheit) erkennt immerhin schon logische Regeln an – also eine Spezialfall von Redenormen.

Dogmen sind halt Glaubenssätze, Lehrsätze, Lehrsprüche   oder Meinungen, die  nicht begründet werden müssen. Das meint die katholische Kirche auch. Axiome der Mathematiker sind ebenfalls von diesem Format. Konstruktiv Arbeitende wollen aus Gründen einer wissenschaftlichen Begründungspflicht  mit dieser Erkenntnisenge nichts, aber auch gar nichts zu tun haben. Dogmatiker sollen Dogmatiker bleiben, unbiegsam wie Kant sagte. Schlimm ist bloß, wenn ein Dogmatismus (wie im Falle der Informatik) in der Schule gelehrt wird. Er, der Dogmatismus, wird gelernt, aber nicht verstanden. Geht auch gar nicht, wegen des Konventionalismus, der gepredigt wird. Streng genommen ist da gar nichts zu verstehen. Da muss man nur alles hinnehmen, nur tüchtig „lernen“, um zu „wissen“. Im Kern  ist das alles nur Makulatur, völlig wertlos. Statt Bildung wird Vielwisserei gelehrt, um alles wieder möglichst schnell zu vergessen.

Schauen Sie auf die Objektorientierung in der Schul-Informatik. Nach dem Unterricht unten bei uns in der Edith-Stein-Schule  stupst der eine Kumpel in Klasse 11 den anderen an und sagt „ Du bist ein Objekt“. Das hatte er gerade so im Informatik-Unterricht als sinnfälliges  Beispiel  einer  Informatik- Konvention „ontologisch“ gelernt. Man müsste Lehrer, die so etwas lehren, verjagen. Der arme Kerl, mein Nachbarssohn, versteht überhaupt nichts mehr. Hatte er doch zuvor im Deutschunterricht von einem grammatischen und logischen Objekt gehört. Und jetzt dieses Informatik-Objekt, das man auch ontologisches Objekt nennt. Informatik stört. so gesehen, nur den Deutsch-Unterricht .   Der Junge ist gut. An ein Informatik –Studium denkt der nicht. Der ist abgeschreckt. Vergeblich sind die Schalmeien-Klänge z.B. der Herrn Jänichen und Günther. Der Pfusch beginnt ganz am Anfang. Gut, dass die Informatik gemieden wird und mit hoher Wahrscheinlichkeit nur noch als Nebenfach Bedeutung haben wird.

In der Schule sieht man das empirische Drama !! Da gilt nun wirklich der Spruch “Das ist das Papier nicht wert, auf dem dieser Dreck steht“. Angefangen mit der Ontologie (ein der Philosophie entlehntes, aber unverstandenes Wort) und endet mit einem stumpfsinnigen Auswendiglernen von unverstandenen und unverstehbaren Konventionen. Alles Empirie. Der Informatik-Pädagoge Michael Fothe versteht aber meinen Ansatz aus „Informatik als Grundbildung“. Der Ansatz, so sagt er, ist aber nicht durchsetzbar. Da steckt eben der Dogmatismus in den Köpfen, den Sie auch predigen, der schon vor 40 Jahren mit FL Bauer in den Schulen begonnen hat, und voraussichtlich nicht aufhören wird. Das weiß ich auch.

Mit Axiomatikern und Dogmatikern kann man halt nicht reden. Die wissen ja alles schon kraft ihrer Dogmen im Voraus. Aber was in den Schulen passiert, ist schlimm, unverantwortlich. Das steht aber auch so in „Informatik als Grundbildung“, geschrieben für unverbesserliche Dogmatiker. Aber immerhin geschrieben. Es steht so ein Aliud in der Welt. Man kann also nicht sagen, das nicht gekannt zu haben. Ich zumindest und andere können sich darauf beziehen. Das nennt man  ökonomisch.

PS: Ich schreibe so spät (voraussichtlich am 27.2.) auf unser Telefongespräch vom 23.2., weil mein Mail-System außer Funktion gesetzt war. Ich habe aber jetzt ein iPhone und quäle mich ab, mit lauter, bloß empirischen Konventionen, deren Vernunft ich nur schwerlich erkennen kann. Mit Vernunft dahinter wäre ich lernfähiger und schneller. Vernunft ist ökonomisch.

PPS: Zum Thema Konvention, ein Beispiel, das mir gerade einfiel.

Temperaturmessungen in F sind bloße Konvention, weil ein Engländer namens Fahrenheit einmal den 0 F Punkt bei -32 ° C festgelegt hat. Er ist im Winter heraus marschiert und hat gemessen und den 0 F Punkt willkürlich festgelegt.

Ganz anders der Schwede Celsius. Der ist vom Wasser ausgegangen, weil er wusste, dass die Welt, die wir kennen, zu 80% aus Wasser besteht. 0 C und 100 C wurden durch Aggregatzustände des Wassers bestimmt. Man merkt aber, da steckt schon ein wenig Vernunft dahinter. Weil Wasser als Maßstab genommen wurde , ist aber auch noch Willkür drin. Die „volle“ Vernunft  und volle Begründung  bei der Temperaturmessung kam aber erst mit Kelvin  und seinen °K und seiner Orientierung am absoluten Nullpunkt. Da ist keine Konvention und keine Willkür mehr  drin, da obsiegte die Erkenntnis. Nach Popper müsste man jetzt das Phänomen des absoluten Nullpunkts falsifizieren. Das kann man nur durch Angabe eines Beispiels, z.B. den Nachweis, dass es hoch tiefere Temperatuten gibt.

Anders im konstruktiven Aufbau mit der Anerkennung eines Apriori. Da beginnt man ganz unten in der Protophysik, also einer Physik, die der eigentlich messenden Physik am Anfang (proto) vorausgeht. Bevor man den absoluten Nullpunkt erklärt, muss man Molekularbewegungen erklären. Davor ist der Bewegungsbegriff einzuführen. Denn man kann konstruktiv nur das verwenden, was schon vorher begründet bereitgestellt wurde. Den Begriff „Bewegung“ kann man nur einführen, wenn  man vorher die Geometrie (Raummessung) und Chronometrie (Zeitmessung) behandelt hat. Geometrie und Chronometrie werden als messtheoretisches Apriori der Physik aufgefasst. Dass sind dann Zustände, in denen Moleküle zur Ruhe kommen, also bewegungsfrei sind, durch eine Norm besonders ausgezeichnet, die ist begründet und vernünftig. Ich brauche kein Falsifikationstheater.

Beweisen kann man empirisch- logische All-Sätze nicht. Neuerdings haben Forscher beim CERN mit der Lichtgeschwindigkeit versucht, den Einstein zu kippen. Auch dieser Falsifikationsversuch eines berühmten naturwissenschaftlichen All-Satzes ging in die Hose. Ich habe den Eindruck, Falsifikationsversuche werde häufig auch deshalb gemacht, um die Presse auf sich aufmerksam zu machen. Früher war es das Perpetuum Moblile. Man kann dann von einer „Falsifikations-Attraktion“ sprechen, die man produziert, um in die Presse zu kommen. Das ist alles eine „geschwätzige Seichtigkeit unter dem angemaßten Namen der Popularität“.

Donnerstag, 19. Januar 2012

Das erste Jahr dieses Blogs – statistisch gesehen

Da Sie als Leser nach dem ersten Monat und ersten Halbjahr je eine Statistik bekamen, dürfen Sie auch jetzt einige Aussagen über die Entwicklung dieses Blogs erwarten. Sie basieren auf Daten vom Stand 19.1.2012, und zwar vormittags gegen 8:30 Uhr. Als erstes kann ich sagen, dass der Blog noch lebt und gedeiht. Die Anzahl der Besucher (Seitenaufrufe) hat sich sogar vom ersten zum zweiten Halbjahr um fast 30% gesteigert (von 4.700 auf 6.000). Seit einiger Zeit wird die Gesamtzahl der erfolgten Seitenaufrufe bei jedem Aufruf des Blogs mitangezeigt. Zum Vergleich sind wieder die Seitenaufrufe des am gleichen Tage (dem 23.1.2010) gestarteten Blogs zu dem Buch ‚Schuld sind die Computer!‘ angegeben. Er lebt auch noch, genießt aber erheblich weniger Aufmerksamkeit.

  
Bei den Besuchern aus dem Ausland ist eine gewisse Verschiebung in Richtung Osten festzustellen. Nicht nur hat Österreich Frankreich überholt, auch Russland und die Ukraine drängen nach vorne. Dass England stagniert, hat möglicherweise mit der politischen Entwicklung im Euro-Raum zu tun. Hinter Singapur verbergen sich vermutlich Leser aus China. Ich bin immer wieder überrascht zu sehen, aus welchen verschiedenen Ländern die Leser des Blogs kommen. In den letzten Wochen fielen mir folgende Länder besonders auf: Argentinien, Bulgarien, Griechenland, Haiti, Indien, Italien, Malaysia, Norwegen, Polen, Schweden, Slowenien, Ungarn und Vietnam. Die Zahl dieser Leser ist in der Tabelle als ‚Übrige Länder‘ zusammengefasst.


Bei den Themen macht sich klar eine Zweiteilung deutlich. Während das Gros nur wenig mehr als je 50 Leser angezogen hat, gibt es zwei Ausreißer. Sie locken selbst Monate nach Erscheinen noch jede Woche 10-20 neue Leser an. Über den Grund für das Interesse kann ich nur Vermutungen anstellen. Unter den wiedergegebenen Zigarettenbildern sind in der Tat einige historische Kuriositäten. Beachtliche Resonanz fand auch der Beitrag von 22.12.2011, der es innerhalb von vier Wochen auf Platz 9 der Favoritenliste gebracht hat. Hinter Platz 10 gibt es mehrere Beiträge mit Zugriffshäufigkeiten nahe 50. 
 
Hinweisen möchte ich darauf, dass es einen Beitrag gibt, der eine Art Inhaltsverzeichnis nach Themen darstellt. Auch zu ihm gibt es einen Link. Ich bringe den Beitrag nur alle paar Wochen auf den neuesten Stand. Zu den im Juli noch angeschnittenen Fragen (Kommentare, Ko-Autoren, technische Erfahrungen) gibt es kaum Neues zu berichten. Stattdessen bringe ich heute eine Tabelle, die Auskunft gibt über die Software-Umgebungen der Nutzer. Sie zeigt links die Betriebssysteme und rechts die Internet-Browser. Wie sehr diese Verteilung das generelle Marktgeschehen widerspiegelt, kann ich nicht sagen. Ich glaube eher, dass wir es mit einem sehr speziellen Marktsegment zu tun haben.



Zum Schluss möchte ich sehr herzlich dem Kollegen Gunzenhäuser aus Stuttgart danken. Er hatte sich lobenswerter Weise dazu bereit erklärt, meine beiden Blogs zu ‘füttern‘, während ich mich vier Wochen lang in einer Klinik am Bodensee aufhielt.

Dienstag, 17. Januar 2012

Informatik und Logik – kleine Hakelei zwischen Manfred Broy und Hartmut Wedekind

Am 5.1.2012 schrieb Manfred Broy an Hartmut Wedekind und mich:

…vieles, was Herr Kollege Wedekind (in einen noch nicht veröffentlichten Beitrag unter dem Titel ‚Das Springen in der Informatik‘) beobachtet, sehe ich ähnlich. Die Informatik sitzt gewissermaßen auf wackligen Stühlen, die Beine sind unterschiedlich lang, das Holz nicht immer sauber verleimt und ab und zu bricht eben ein Stuhl zusammen. Das Beispiel der Objektorientierten Programmierung, in der Objekt-Identifikatoren genau genommen nichts anderes als Adressen sind, die außerhalb des Rechners nun wirklich überhaupt keinen Sinn machen und das Fehlen von Primärschlüsseln, die einen anschaulichen Zusammenhang zwischen der gegenständlichen Welt und den gespeicherten Daten herstellen, ist ein Ärgernis, das mir selbst auch schon öfter untergekommen ist.

Viele der anderen Punkte finde ich auch wichtig und valide. Ich plädiere ohnehin dafür, dass Abstraktionen explizit erfasst werden sollten. Langfristig wäre meine Hoffnung, dass nur die fachlichen Abstraktionen ausgearbeitet werden müssen und aus denen dann die technischen Details (der "Code") generiert werden könnten, aber das ist eine andere Geschichte. Eine kleine Bemerkung muss ich natürlich noch loswerden. Wikipedia ist zwar immerhin ein interessantes Medium, aber eben leider auch häufig kein verlässlicher Ratgeber. Wie dort ‚Information Hiding‘ definiert ist, ist aus meiner Sicht eigenwillig und ein wenig schräg.

Einen Punkt muss ich Herrn Wedekind leider noch vorhalten. Seine Definition der Unabhängigkeit auf Seite 13 macht so keinen Sinn. Die Definition von Unabhängigkeit in logischer Form P -> ¬ (A ∨ ¬A) kann nicht ernst gemeint sein. Einfache Aussagenlogik zeigt, dass die Formel ¬ (A ∨ ¬A), die auf der rechten Seite des Pfeils steht, gern oft Konklusion genannt, gleichzusetzen ist mit ¬A ∧ A und das ist logisch äquivalent zu ‚false‘. Wenn aber aus P logisch ‚false‘ folgt, also P -> false, muss P auch ‚false‘ sein. Das ist ein etwas eigenartiger Begriff von Unabhängigkeit.

Hier sei noch angemerkt, das Thema der logischen Unabhängigkeit beschäftigt mich durch einen seltsamen Zufall seit einigen Wochen und Monaten, da mich die Frage interessiert was logische Unabhängigkeit von Anforderungen im Requirements Engineering bedeutet. Der Begriff ist wohl ein wenig komplizierter als Herr Wedekind das dargestellt hat.

Noch am selben Tag antwortete Hartmut Wedekind:


Als ich Ihre Zeilen in Sachen „Logische Unabhängigkeit“ las, geriet ich in Zweifel. Aber als ich dann in der Enzyklopädie von Jürgen Mittelstraß unter dem Stichwort „unabhängig (logisch)“ im 4. Band nachlas, war ich wieder ganz beruhigt.

Da steht verkürzt: Ein Satz S ist von einem Axiomensystem (Satzsystem) A unabhängig, wenn weder S noch ¬ S aus A logisch folgen. „Weder S noch ¬ S“ steht in der Konseqens (die Logiker schreiben Konseqens (den Folgesatz) mit „s“ am Ende. Das habe ich auch gerade wieder gelernt). Wie formuliert man nun die Konsequens „Weder S noch ¬ S“ in der Logik?

Das wird sehr schön in der kleinen Schrift von Vogt und Wehle „Die Logik als Spiegelbild der Welt“ gezeigt (siehe Link). Die gehen sogar auf den N-Operator meines so verehrten Philosophen Ludwig Wittgenstein ein. Wittgenstein wurde z. Z des Algol 60-Berichtes in der Informatik ganz groß mit seinem berühmten Satz herausgestellt „ Was sich überhaupt sagen lässt, lässt sich klar sagen; und wovon man nicht reden kann, darüber muss man schweigen“. Der Satz steht im Vorwort zum Tractatus. Ob unser Nestor der deutschen Informatik, F.L. Bauer, den Satz dahin gebracht hat? Bauer war in der Algol 60-Gruppe.

Der von Vogt und Wehle erwähnte Operator N(p,q) = weder p noch q = ¬ (p ∨ q) steht auch im Tractatus 6.001. Ich brauche nur q durch ¬ p zu ersetzen und erhalte ¬ (p ∨ ¬ p) oder in der obigen Schreibweise ¬ (S ∨ ¬ S) oder bei mir ¬ (
A ∨ ¬ A). Das ist aber in der klassischen Logik in der Tat der Satz vom Widerspruch „¬ A A -> Falsch“ (nach de Morgan).

Das ist aber die Pointe. Die Logiker führen den Begriff „ unabhängig“ auf Falschheit zurück. Das ist so weit nichts Schlimmes. Für Logiker gilt dann aber auch „ ex falso sequitur quodlibet“, d. h. aus Falschem kann man Beliebiges, also alles (quodlibet) schließen. Oder aus dem Falschen folgt, bürgerlich gesprochen, alles oder gar nichts. Man nennt das auch Blabla. Das ist an die Adresse der Politiker. Oder in unserem Zusammenhang: Aus der physischen Speicherung (P) folgt für die Anwendung (A) nichts oder alles (quodlibet). Abstraktion ist aber logisch ganz etwas anderes. Den Punkt wollte ich machen.

Die Logiker sind schon komische Vögel. Sie führen den Begriff „Unabhängikeit“ auf „Beliebigkeit“ zurück. Irgendwie ist das „sexy“ würde man heute sagen, wenn man jung wäre. Logiker und sexy? Ich glaube, die Jugend bringt mich um, auf der Stelle, schon allein, weil ich ein für sie reserviertes Wort benutze.

Manfred Broy schrieb noch am 5.1.2012:


Ich schreibe für "aus A folgt S" als A |- S. Das Problem besteht in dem simplen Unterschied zwischen der Aussage P -> ¬ (A ∨ ¬A), die wie von mir begründet logisch mit P = false äquivalent ist und der Aussage, dass weder A |- P  noch A |- ¬P gilt. Daraus lässt sich aber nicht ableiten, dass P = false gilt.

Lieber Herr Kollege Wedekind - hier irren Sie! Die Logiker führen den Begriff „unabhängig“ eben nicht auf Falschheit zurück, sondern auf Nichtableitbarkeit sowohl von Formel P als auch von Formel ¬P aus A. Es gilt zwar: Aus A |- P folgt |- A -> P. Aber aus der Aussage, dass A |- P nicht gilt, folgt die Aussage ¬(A -> P) nicht: Unter Missbrauch der logischen Symbole ausgedrückt ¬(P |- A) ≠ |- ¬(P -> A). Der Grund ist einfach: In der Herleitungsaussage steckt ein verborgener Allquantor. Enthalten A und P nur eine freie logische Variable x, so steht (Annahme der Vollständigkeit des Ableitungssystems) A |- P für die Aussage ∀ x: A -> P damit liefert ¬(A |- P) die Aussage ¬ ∀ x: A -> P und somit     ∃ x: ¬(A -> P). Man könnte (fälschlicherweise) versucht sein zu schreiben ¬(A -> P) ∧ ¬(A -> ¬P) und erhält dann in der Tat einen Widerspruch A ∧ ¬P ∧ A ∧ P.

Ich bestehe darauf, dass ihre Übersetzung von: Ein Satz P ist von einem Axiomensystem (Satzsystem) A unabhängig, wenn weder S noch ¬P aus A logisch folgen zu P -> ¬ (A ∨ ¬A) nicht logisch korrekt ist.

Am 6.1.2012 antwortete Hartmut Wedekind:


Wenn ich die logische Unabhängigkeit über die Falschheit auf die Beliebigkeit bei Angabe der Quellen zurückführe, dann tue ich eigentlich nichts "Böses". Ich berichte bloß aus dem Reich der Logiker. Irren kann ich mich so gesehen gar nicht. Ich kann nur falsch berichten. Ansonsten, wenn ich richtig berichte, müssen Sie die Quellen, die ich heranziehe, angreifen. Das Überführen des Begriffs "Unabhängigkeit " auf den Begriff "Beliebigkeit " macht aber auch Sinn. Z.B. wenn ich sage: "Weil mein Sohn unabhängig von mir ist, kann er nach Belieben handeln" („Filius meus facit quodlibet“, würden die Lateiner sagen, "Ei, der mocht, was‘er will", sagt man so ungefähr auf Hessisch). Auch systemtechnisch ist es sinnvoll, Unabhängigkeit mit Beliebigkeit zu übersetzten. Z.B.: System B ist von System A unabhängig, wenn in B beliebig in Bezug auf A verfahren wird oder verfahren werden kann.

Wenn ich Ihren Text lese und ich das Ableitungszeichen |- sehe (manchmal schreibt man auch |-K und meint ableitbar im Kalkül K), kommen bei mir die Befürchtungen auf, dass Sie die Ebenen wechseln. Von der Logischen Semantik wandern Sie hinunter in die Welt der Logischen Kalküle oder der Logischen Syntax. Da wollte ich aber gar nicht hin. Denn das ist ein ehernes Gesetz der kalkül-orientierten Logiker (berühmt sind Frege, Hilbert, Gentzen, usw.), dass sie die Formeln, die die klassische Logische Semantik ihnen vorgibt, auch kalkülmäßig ableiten können müssen. Also z.B. auch das semantische Schema für "aus Falschem folgt Beliebiges" (A ∧ ¬ A) -> B, was ein allgemeingültiges Schlussschema ist, sogar konstruktiv.

Lieber Herr Broy: In Wirklichkeit ist das aber nur ein Nebenkriegsschauplatz in der Informatik. Logik ist nur eine Nebensache, aber natürlich für die Informatik eine wichtige Nebensache.

PS: In Ihrem Satz am Ende: „Ich bestehe darauf, dass ihre Übersetzung von: Ein Satz P ist von einem Axiomensystem (Satzsystem) A unabhängig, wenn weder S noch ¬P aus A logisch folgen zu  P -> ¬ (A ∨ ¬A) nicht logisch korrekt ist” sollte P durch ¬ S ersetzt werden, und A sollte in den Vordersatz. Also: A -> ¬ (S ∨ ¬ S).

Am 10.1.2012 schrieb Manfred Broy:


ich denke, ich habe meinen Standpunkt genügend dargelegt. Es macht einen Unterschied, ob man meta-mathematisch über einen Kalkül, wie beispielsweise den Begriff "nicht ableitbar" redet (was in der formalen Sprache des Kalküls i.d.R. nicht formulierbar ist) oder innerhalb eines Kalküls Aussagen formuliert. Um in Ihrem Bild zu bleiben: Das Springen zwischen Ebenen (formale Sprache und Meta-Ebene) ist immer gefährlich.

Ob Logik eine Nebensache ist, kommt natürlich auf den Standpunkt an. Aus Sicht der Informatik finde ich, dass Logik etwas mehr ist als eine Nebensache. Es ist eher eine der Grundlagen und wie Sie auch in Ihrer Arbeit richtig schreiben, wenn in der Informatik Personen unterwegs sind, die diese Grundlage zu wenig verstehen, dann sind auch manche der Resultate zur Informatik nicht fundiert (siehe Java, UML, etc.).

Am 15.1.2012 schrieb mir Hartmut Wedekind:


Ich sag jetzt nichts mehr, obwohl ich noch stundenlang reden könnte. Herr Broy hat das letzte Wort. Basta!