Dienstag, 7. Oktober 2014

Manfred Broy über Cyber-Physische Systeme und Informatik 4.0

Manfred Broy (Jahrgang 1949) ist seit 1989 Informatik-Professor an der TU München. Davor war er an der Universität Passau tätig. Sein Fachgebiet ist Software und Systems Engineering. Broy hat über 200 Veröffentlichungen und betreute eine Vielzahl von Promotionen. Er ist Träger der Konrad-Zuse-Medaille (2007) und Fellow (2004) der Gesellschaft für Informatik (GI). Er war Leibnizpreisträger der DFG (1994). Er ist Mitglied der Europäischen Akademie der Wissenschaft (1992) und der Deutschen Akademie der Naturforscher „Leopoldina“ (2003). Er ist Mitglied im Konvent der Technikwissenschaften acatech (2006) und der Bayerischen Akademie der Wissenschaften (2014). Außerdem ist er Ehrendoktor der Universität Passau (2003). Broy hatte in München Mathematik und Informatik studiert und bei F.L. Bauer promoviert.
 


 
Bertal Dresen (BD): Bei der GI-Jahrestagung im September in Stuttgart hat mich Ihr Vortrag sehr angesprochen. Er hatte den Titel: ‚Cyber-Physical Systems – digital vernetzt in die physikalische Wirklichkeit‘. Der Ausdruck Cyber-Physische Systeme (CPS) wurde in Deutschland durch eine Studie der acatech, der Deutschen Akademie der Technikwissenschaften, populär gemacht. Es sind, wie Sie sagten, ‚software-intensive Systeme, die unmittelbar mit der physikalischen Wirklichkeit verbunden sind, aber im Gegensatz zu klassischen eingebetteten Systemen tief und umfassend über globale Netzstrukturen, wie das Internet und damit verfügbare Daten und Dienste, vernetzt sind.` Dieses Thema ist im Moment nicht nur in Deutschland sehr heiß. Könnten Sie anhand eines Beispiels die Eigenschaften eines CPS verdeutlichen.

Manfred Broy (MB): Ein typisches cyber-physisches System wäre ein integriertes Verkehrsinformationssystem, bei dem sowohl aus den Fahrzeugen Daten an einen zentralen Server, etwa in der Cloud, übertragen werden, dort mit Informationen zum Verkehr, auch zur Parksituation und zu vielen anderen wichtigen Informationen mehr, wie Wetter, Großveranstaltungen und ähnliches, abgeglichen werden und dann wieder als gezielte Dienste in die Fahrzeuge, aber gegebenenfalls auch auf andere Endgeräte zurückgespielt werden. Zusätzlich kann ich mir vorstellen, dass hier multimodale Verkehrsführung unterstützt wird, so dass Verkehrsteilnehmer, die zwischen unterschiedlichen Verkehrssystemen wechseln, wie beispielsweise Straßenfahrzeuge, Schienenfahrzeuge und Flugzeuge, natürlich gegebenenfalls auch Schiffe, abhängig von der aktuellen Verkehrslage und eventuell auch der Preissituation geführt werden. Gleichzeitig könnte man sich vorstellen, dass die gesamte Bezahlabwicklung dabei automatisch erfolgt. Wenn man solche Szenarien durchdenkt, sieht man, dass vielfältige Möglichkeiten der Verknüpfung gegeben sind. Schon heute ist die Begrenzung unserer Möglichkeiten weniger die Technologie als die Frage, ob man entsprechende Systeme organisatorisch in den Griff bekommt, ob sie in Hinblick auf die zu bewältigenden Komplexitäten tatsächlich praktikabel sind und insbesondere wie stark sie von den potentiellen Nutzern akzeptiert werden

Das obige Beispiel Verkehrssystem zeigt schon deutlich, was damit gemeint ist. Erweitern wir das Beispiel noch ein wenig, indem wir auch noch eine Assistenz für den Fahrer hinzunehmen. Das bedeutet, dass nun innerhalb des Systems auch extrem zeitkritische Vorgänge, wie zum Beispiel Bremsvorgänge zusätzlich eine Rolle spielen können. Versuchen wir von den Erfahrungen im zivilen und militärischen Fluganwendungen zu lernen, bei denen heutzutage ein Großteil der Flugvorgänge vollautomatisch abgewickelt werden. Beispielsweise fliegt heute ein Zivilpilot auf einem zweistündigen Flug oft nur noch einige Minuten selbst und den Rest erledigen die Systeme. Hier ist über die Jahre ein umfangreiches Wissen entstanden über die Art und Weise, wie man Menschen in ihren Aufgaben assistiert, ihnen kognitive Assistenten zur Seite stellt, auch kooperative Vorgänge zwischen System und Nutzer gestaltet bis hin zu dem Punkt, dass die Systeme in kritischen Situationen eingreifen und, gerade wenn der Mensch überfordert ist, Entscheidungen fällen. Dies zeigt in welchem Umfang CPSe sich von anderen Systemen markant unterscheiden. Im Mittelpunkt steht dabei sicher, dass die Systeme Informationen und Daten aufbauen, ich vermeide bewusst dabei von Wissen zu sprechen, über die Situation und den Zustand der Systemumgebung und zwar den aktuellen Zustand, so dass die angesprochenen Reaktionen ermöglicht werden.

BD: Interaktive und zeitkritische Anwendungen gab es doch schon lange. Wollen Sie sagen, dass diese in der Praxis nur eine untergeordnete Rolle spielten oder dass sie von der Theorie stiefmütterlich behandelt wurden? Sie schreiben: ‚Von besonderer Bedeutung sind letztlich Modelle von Zeit und Raum. Eine Informatik, die diese Konzepte harmonisch integriert und in einen Engineering-Ansatz umsetzt, ist das geeignete Vehikel, um die Cyber-Physischen Systeme der Zukunft zu erschließen.‘ Dass für Informatiker und Informatik-Systeme jetzt plötzlich eine ‚Real World Awareness‘ gefordert wird, mag manchen Praktiker, der nie ohne Realitätsbezug auskam, etwas überraschen. Was ist jetzt wirklich neu oder grundsätzlich anders?

MB: Natürlich gibt es seit vielen Jahrzehnten Echtzeitanwendungen und viele andere Anwendungen sind auch zeitkritisch. Allerdings muss man feststellen, dass die Programmierung entsprechender Anwendungen immer noch sehr stark einem klassischen alten Paradigma unterworfen ist. Die Systeme besitzen ihren eigenen Zeittakt und die Programme müssen auf diesen Zeittakt so zugeschnitten werden, dass die Zeitschranken erreicht werden. Methodisch ist das Thema der Zeit damit viel zu wenig im Hinblick auf die Zeit im Anwendungsgebiet zugeschnitten. Gleichzeitig müssen wir intensiv über die unterschiedlichen Zeitmodelle diskutieren, beispielsweise über Zeitmodelle, wie sie typischerweise in der Regelungstechnik eingesetzt werden, nämlich klassische kontinuierliche Zeit dargestellt durch die reellen Zahlen und diskrete Zeitmodelle, wie sie die Informatik einsetzt. Eine wesentliche Beobachtung dabei ist, dass es in der Entwicklung der Programmiersprachen am Anfang aus nachvollziehbaren Gründen ein Hauptanliegen war, Zeitaspekte völlig weg zu abstrahieren, da diese immer als Zusammenhang zu den eher zufällig maschinennahen Ausführungszeiten gesehen wurden, während heute die Systeme in die Zeit unserer Wirklichkeit eingebettet laufen. Hinzukommt, dass frühere eingebettete Systeme nicht nach außen vernetzt waren, somit ihre eigenen Methoden einsetzen konnten, wie sie mit zeitkritischen Aufgaben umgehen. Nun müssen unterschiedliche Systeme, die zeitkritisch sind, sich auch untereinander synchronisieren.

BD: Das Internet der Dinge (engl. Internet of Things, Abk. IoT) wird immer wieder als der große Durchbruch dargestellt. Bei Jeremy Rifkin, dessen zwei letzte Bücher ich in diesem Blog besprach, wunderte es mich, dass er den Ausdruck IoT auch auf Strom- und Wassernetze anwendete. Ist das nur eine Wortspielerei? Auch Sie sprechen von physikalischen Diensten, die über das Internet verabreicht werden. Wie beurteilen Sie das wahre Potential? Wo sehen Sie die technischen Probleme?

MB: Es ist natürlich wahr, dass die Terminologie hier noch deutlich diffus ist. Es geistern eine ganze Reihe von Begriffen durch die Gegend, wie eben „Internet of Things“, „Cyber-physical Systems“, „Internet der Daten, Dienste und Dinge“ und vieles mehr. Wir bemühen uns seit längerem darum, hier ein wenig mehr Klarheit in die Begrifflichkeit zu bekommen. Ursprünglich war „Internet of Things“ im Wesentlichen als RFID verstanden worden, das heißt, dass man über entsprechende Sensoren RFID-Tags an Gegenständen lesen und damit beispielsweise in der Logistik oder in der Produktion sehr viel genauer verfolgen kann, wie Gegenstände verarbeitet oder versandt werden. Das Ganze bekommt eine ganz andere Dimension, wenn es sich nicht nur um Gegenstände handelt, sondern um Geräte und Systeme, die selbst über Rechenfähigkeit verfügen und damit in eine Interaktion treten mit den sie umgebenden Systemen.

Bei Stromsystemen ist das ganz einfach zu verdeutlichen. Klassisch hatten wir Stromsysteme, in denen nur die Stromverteilungssysteme selbst über Informationsverarbeitungsfähigkeiten verfügten. Schon der Stromzähler war eine absolut passive Einheit und alles, was sich dahinter in den Gebäuden abgespielt hat, gleichermaßen. Stellt man sich vor, dass in diesen Stromsystemen heute alle wesentlichen Einheiten als Systeme konzipiert werden, die Informationen austauschen und auf diese Art und Weise eine ganze Reihe von Optimierungsmöglichkeiten umsetzen können, so erkennt man den Übergang von einem klassischen Stromsystem zu einem Stromsystem, das tatsächlich als Cyber-physical System betrachtet werden kann.

BD: Die Verfechter von Big Data reden jetzt sehr viel von Smart Data. Ist das mehr als der Versuch die Aufmerksamkeit wieder etwas mehr in Richtung Software zu lenken? Besteht nicht die Gefahr, dass alles, was Software enthält, automatisch als intelligent oder smart dargestellt wird? Was können oder müssen wir tun, um klar zu machen, dass man auch bei Software differenzieren muss?

MB: Der Begriff der Big Data oder Smart Data ist im Moment überstrapaziert. Vielleicht ist es wichtig, sich noch einmal klar zu machen, warum dieser Begriff in den letzten Jahren so viel Bedeutung bekommen hat. Das hat schlicht und ergreifend mit zwei Phänomenen zu tun. Zum einen fallen über die Jahre immer mehr digitale Daten an, weil Menschen fast rund um die Uhr mit digitalen Geräten interagieren und dabei jede Menge digitaler Daten produzieren. Dies sind beispielsweise Daten, die bei Google anfallen, wenn Menschen Abfragen eingeben, aber ebenso Daten, die in Unternehmen anfallen, wenn Menschen in ihren Alltagsaufgaben mit den Systemen mit Daten hantieren. Das geht bis hin zu Daten, die beim Austausch von E-Mails entstehen. Ein zweiter riesiger Datenbestand entsteht durch die immer weiter zunehmende Sensorik. Ein Automobil ist heute ein riesiger Datenstaubsauger. Wenn es gelingt, diese Daten in die Netze zu bringen und zugänglich zu machen, so können viele interessante Effekte dadurch erzielt werden. Mir ist natürlich bewusst, welche große Rolle hier offene Fragen des Datenschutzes und der Datensicherheit spielen.

Die großen Mengen von Daten schreien jedoch förmlich danach, damit interessante Möglichkeiten zu nutzen. So landen wir tatsächlich beim Thema Big Data. Der Begriff der Smart Data ist tatsächlich wohl mehr ein Marketingbegriff. Die Daten selber sind natürlich in keiner Weise „smart“, bestenfalls die Art und Weise wie man über Algorithmen aus den Daten in intelligenter Weise zusätzliche Informationen gewinnt.

BD: Haben Sie den Eindruck, dass semantische Technologien bereits einen signifikanten Anteil bei der System- oder Anwendungsentwicklung erreicht haben? Welche Auswirkungen haben sie auf den Entwicklungsprozess?

MB: Semantische Technologien stehen natürlich gerade in einem direkten Zusammenhang mit Big Data. Wenn man über große, unstrukturierte Datenmengen verfügt, ist es natürlich höchstinteressant, etwas zu unternehmen, um diese Daten zu interpretieren und ihnen eine Bedeutung zuzuordnen. Damit sind wir bei den semantischen Technologien.

Am einfachsten kann man semantischen Technologien mit Beispielen aus dem Internet erklären. Bilder im Internet sind aus Sicht des Informatikers erst einmal nur Pixel-Wolken, die gespeichert, übertragen, dargestellt und verarbeitet werden. Aus Sicht der Anwendungen ist es natürlich von höchstem Interesse zu erkennen, was auf den Bildern abgebildet ist und mehr noch, zwischen Bildern und anderen Daten Beziehungen herzustellen, auch zu erkennen, welche Bedeutung Daten oder Bilder für die Wirklichkeit haben und wie diese mit der physikalischen Wirklichkeit in Verbindung zu sehen sind, insbesondere, wenn es sich dabei um Daten handelt, die innerhalb von CPSen entstehen. Wenn es uns also gelingt, aus den Daten semantische Inhalte zu gewinnen, so haben wir einen wichtigen Schritt getan.

Vielleicht lässt sich das wieder gut an einem Beispiel erklären. Ein Auto nimmt heute eine Vielzahl von Informationen über die Sensoren auf. Wenn es gelingt, aus diesen Informationen ein zuverlässiges Bild von dem Umfeld des Autos zu gewinnen, so kann man natürlich daraus in vielfacher Weise zusätzliche Funktionen für den Fahrer anbieten. Der Übergang von der Wolke von Sensorik-Information zu einem strukturierten Informationsmodell ist genau ein Beispiel für so eine semantische Technologie. Der Traum vieler Informatiker ist, dies nicht so zu bewerkstelligen, dass sich ein Ingenieur entsprechende semantische Konstruktionen ausdenkt, sondern dass ein Teil dieser Konstruktionen durch Algorithmen generiert werden. Dies aber ist sicher noch eine offene Frage für die Zukunft.

BD: Können Sie sich vorstellen, in Kürze eine Google-Brille (oder ein ähnliches Produkt) zu verwenden? Wem würden Sie empfehlen, es zu tun? Wo sehen Sie ihre Anwendung?

MB: Warum nicht? Ich könnte mir durchaus vorstellen, in bestimmten Situationen Geräte wie eine Google-Brille zu verwenden. Es kommt hier natürlich immer darauf an, was man damit erreichen will und welche Funktionalität so ein Gerät erbringt. Die Google-Brille ist ja nicht nur dazu da, Informationen einzublenden, sondern umfasst auch eine Videokamera, die Informationen aufnimmt, analysiert und speichert. Die Möglichkeiten des Einsatzes sind vielfältig. Ich möchte nicht verhehlen, dass mir manches dabei ein wenig unbehaglich vorkommt, etwa die Vorstellung, dass wir in wenigen Jahren allesamt mit solchen Geräten auf der Nase herumlaufen und uns gegenseitig per Video aufnehmen und analysieren. Aber in bestimmten Situationen in Beruf und Freizeit könnte die Google-Brille durchaus mit großem Gewinn eingesetzt werden, beispielsweise im Sport oder aber in der Produktion oder in der Wartung von Geräten.

BD: Können Sie mit gutem Gewissen den Einsatz autonomer Systeme empfehlen? Etwa selbstlenkende Autos? Sind da die Amerikaner uns technisch voraus oder haben sie bloß weniger Angst? Wann ist mit ihrer massenhaften Einführung im Markt zu rechnen?

MB: Das ist wirklich eine interessante Frage. Ich denke, dass die Frage der autonomen Systeme manchmal zu sehr nach schwarz und weiß gesehen wird. Ist ein System autonom oder ist es nicht autonom. Ich glaube, dass es hier einen starken Graubereich gibt. Systeme, die assistieren, die also nicht vollautonom sind, doch aber so stark in der Interaktion mit ihren Nutzern Einfluss auf das Geschehen nehmen, dass sie das Geschehen in weiten Teilen mitbestimmen. Das ist eine große Herausforderung in zweierlei Hinsicht – zum einen solche Systeme tatsächlich funktionsfähig zu schaffen und auf der anderen Seite dabei aber auch grundlegende Bedürfnisse der Menschen und auch einer freiheitlichen Bürgergesellschaft nicht aus den Augen zu verlieren.

In manchen Anwendungsfeldern aber stellt sich die Frage nicht wirklich. Wenn es uns tatsächlich gelingt, und das ist heute schon sehr gut abschätzbar, die hohe Zahl der Verkehrsunfälle zu reduzieren, indem man in gewissen Situationen zulässt, dass Systeme autonom eingreifen, so sind wir uns sicher alle einig, dass das ein guter Schritt wäre. Ich komme gerade von einer Konferenz zur funktionalen Sicherheit im Fahrzeug und bin immer wieder fasziniert, mit welcher Sorgfalt heute in der Automobilindustrie alles getan wird, um Fahrzeuge zu produzieren, in denen keine technischen Defekte zur Gefährdung der Passagiere führen können. In der Unfallstatistik ist tatsächlich das technische Versagen von Fahrzeugen allerdings ein absolut geringfügiger Faktor. Es scheint mir völlig auf der Hand zu liegen, dass wir viel weitergehende Fortschritte in der Unfallreduzierung erzielen können, wenn wir über teilautonome Systeme Unzulänglichkeiten mancher Verkehrsteilnehmer ausgleichen.

BD: Mich wundert es etwas, dass Sie das Thema der nicht vollkommen geplanten, aber enorm wachsenden Systeme außer Acht lassen. In einem gemeinsamen Papier im Jahre 2008 nannten wir sie Übergroße Systeme (engl. ultra-large systems). Halten Sie das Phänomen inzwischen für unwichtig, oder meinen Sie das die Informatik als Wissenschaft hier ohnehin nichts tun kann?

MB: In der Tat habe ich das Thema in meinem Vortrag nicht angesprochen. Ich habe ohnehin viel zu viele Themen angerissen, ohne dass ich sie wirklich besprechen konnte. Ich glaube, dass übergroße Systeme mit schwer zu beherrschendem Wachstum wirklich ein großes Problem darstellen. Das beginnt mit den ganz elementaren Fragestellungen, wie der Wartung großer Systeme. Heute sind ja viele Unternehmen in der Wartungsfalle.

Aber auch der Umstand, dass wir heute Systeme bauen, die immer weiter eingesetzt werden und gleichzeitig in ihrer Funktionalität und Vernetzung eine Erweiterung erfahren, liegt in einem Bereich, den wir nicht genügend verstehen. Es ist ja heute schon interessant zu sehen, dass wir Systeme, die unter ganz anderen Vorzeichen entstanden sind, über einen sehr langen Zeitraum im Einsatz haben. So ist es wirklich erstaunlich, dass die grundlegende Internet-Technologie, die aus den 70er Jahren stammt und einen eher militärischen Hintergrund hat, heute mit den Internetstrukturen die gesamte Informationsvernetzung in unserer Welt dominiert. Ein zweites Beispiel sind die Betriebssysteme – ich will hier nur Windows nennen – die unter ganz anderen Vorzeichen entstanden sind und nun in einer immer stärker vernetzten Welt zurechtkommen müssen. Kein Wunder, dass es hier viele Probleme gerade auch mit der Sicherheit gibt.

BD: Bei Ihnen spielt der Begriff der Modellierung eine herausragende Rolle. Sie meinen vermutlich nicht Datenmodelle oder Leistungsmodelle. Könnten Sie kurz erläutern, um welche Art von  Modellen es bei Ihnen geht. Ich würde gerne besser verstehen, wie Sie Zeit und Zeitfluss in mathematischen Modellen darstellen. Mein Eindruck ist nämlich dass Sie fast immer nur mit Mengen arbeiten, also ungeordneten Elementen. Täusche ich mich?

MB: Ich glaube, dass die Informatik grundsätzlich die Wissenschaft von der Modellierung ist. Jedes Programm ist ein Modell – zum einen ein Modell von Teilen des Anwendungsgebiets, in dem es angewandt wird, und es beruht auf bestimmten Modellannahmen. Dabei schließe ich Datenmodelle oder Leistungsmodelle durchaus ein. Ich denke, dass wir eine Fülle von Modellen brauchen, die ineinander greifen.

Zu Ihrer Frage, was den Zeitfluss betrifft – hier hat die Mathematik über viele Jahrzehnte und Jahrhunderte uns bereits aufgezeigt, wie weitgehend wir in der Lage sind, bestimmte Vorgänge mathematisch zu modellieren. Es führt hier ein wenig zu weit, in die technischen Details einzusteigen. Aber die Modelle, mit denen wir seit vielen Jahren nun arbeiten, sind Modelle von Verhalten von Systemen, oft von diskreten Systemen in einem diskreten Zeitfluss. Für solche Modelle lassen sich bestimmte Gesetzmäßigkeiten aufstellen, die diesen Zeitfluss abbilden und die gleichzeitig wieder benutzt werden können, um über Eigenschaften dieser Modelle zu schlussfolgern. Dass die Modelle selbst wieder mit mathematischen Mitteln dargestellt werden, also im Wesentlichen mit Mengen und Relationsstrukturen über diesen Mengen, ist nicht erstaunlich. Etwas anderes hat uns die Mathematik ja auch nicht in die Hand gegeben.

BD: Durch Ihre Antwort, dass Sie zu Modellen auch Programme rechnen, erübrigt sich eine meiner ursprünglichen Fragen, nämlich: Welche Sprachen und Werkzeuge kommen dabei zur Anwendung? Ich dachte eigentlich an Modelle, die nicht in einer Programmiersprache ausgedrückt werden. Dann muss man sich nämlich fragen, welchen Sinn sie haben oder welche Fragen sie beantworten sollen. Belassen wir es bei Ihrer Antwort.

Sie sagen, dass Systeme durch Software ‚individualisiert‘ werden. Muss man nicht vorsichtiger formulieren? Sie meinen doch, dass anwendungsneutrale Hardware erst durch Software zu einem nutzbaren System wird. Sie wollen doch nicht sagen, dass jeder Nutzer Software erhält, die speziell für ihn geschrieben wurde? Oder wollen Sie alle Menschen zu Programmierern machen?

MB: Ich denke, da haben Sie eine Bemerkung von mir missverstanden. Ich wollte in meinem Vortrag nur darauf hinweisen, dass die Durchschlagskraft der Informatik zum einen daraus kommt, dass heute die Leistungsfähigkeit der Prozessoren immer noch im Sinne des Moore´schen Gesetzes im Wesentlichen exponentiell zunimmt. Dies gilt, zwar mit unterschiedlichen Zahlen, für Speicherung, Berechnung und Kommunikation im Wesentlichen gleichermaßen. Diese Zunahme der Leistungsfähigkeit geht einher mit einem starken Preisverfall, der auch aus der industriellen Produktion der Chips herrührt. Der Effekt würde aber nicht zum Tragen kommen, wenn nicht gleichzeitig durch die Möglichkeiten der Software die Rechner auf ganz unterschiedliche Aufgaben zugeschnitten werden könnten.

Dabei hatte ich nicht im Sinn, dass für jeden einzelnen, individuellen Benutzer individuell Software gebaut wird, sondern dass ein Prozessor eingesetzt werden kann, um Berechnungen durchzuführen, um Kommunikationsprotokolle abzuwickeln, um ein Gerät zu steuern. Zwar haben wir heute natürlich unterschiedliche Prozessorfamilien für unterschiedliche Zwecke, aber es ist sicher unbestritten, dass die eigentliche Zuschneidung eines Rechnerkerns für eine Aufgabe letztendlich durch die Software erfolgt. Dahinter steckt auch die Erkenntnis, dass Software der entscheidende Stoff ist, aus dem die Zukunft gebaut werden wird. Es gibt ja den berühmten Satz „Software eats the world“.

BD: Der Begriff ‚Unschärfe‘ steht bei Ihnen für sehr unterschiedliche Dinge: Mehrdeutigkeit, Ungenauigkeit und fehlende Information. Muss man nicht jedes Problem getrennt angehen, um weiterzukommen? Ist der Begriff ‚günstiges Angebot‘ nicht einfach eine (gewichtete) Oder-Verknüpfung von niedrigster Preis, beste Lieferbedingungen und günstigste Zahlungsweise?

MB: Ich stimme Ihnen völlig zu. Ich habe das versucht, in meinem Vortrag auch in aller Kürze zu sagen. Es gibt ganz unterschiedliche Ausprägungen von Unschärfe und hier findet sich ein interessanter, ja fast dialektischer Gegensatz. Die Informatik ist ja eine Wissenschaft, die im Kern auf klassische zweideutige Logik aufgebaut ist. Etwas überspitzt ausgedrückt könnte man sagen, dass die Informatik die Ingenieurwissenschaft der Logik ist. Es ist erstaunlich zu sehen, welche fundamentalen Erkenntnisse die Logik gerade in der ersten Hälfte des letzten Jahrhunderts erzielt hat, noch bevor Informatik als Ingenieurwissenschaft wirklich bedeutsam geworden ist und wie stark sich die logischen Überlegungen dann in dem, was die Informatik macht, widerspiegeln – in der Tat faszinierend.

Logik ist ein Versuch, eine in vielen Bereichen unscharfe Welt, zumindest aus Sicht des Menschen unscharfe Welt, in scharfe Strukturen zu bekommen. Das ist natürlich immer nur bis zu einem gewissen Grad möglich. Solange die Informatik eine Informatik im Labor und Rechenzentrum war, ist dieser Gegensatz auch nicht ganz so stark zu Tage getreten. Aber heute, wo die Informatik an allen möglichen Ecken und Enden integriert in unserer Wirklichkeit eine immer stärkere Rolle spielt, hat dieser Gegensatz an Bedeutung gewonnen und wir müssen sehr viel stärker verstehen, wie wir damit umgehen.

BD: In Anlehnung an das Schlagwort Industrie 4.0 definieren Sie die Informatik 4.0. Als bestimmende Technologien und Aspekte erwähnen Sie: Globale Vernetzung, Sensoren und Aktuatoren, menschliche Ausrichtung (engl. Human Centric Systems). Wie kann und soll die Informatik 4.0 unter die Leute gebracht werden? Was müssen wir neu lernen? Was müssen bzw. können die Hochschulen tun?

MB: Ich habe das mit der Informatik 4.0 nicht ganz so ernst gemeint. Ich wollte keinen neuen Begriff prägen. Auch der Begriff Industrie 4.0 ist ein wenig ein Schaufensterbegriff. Daran liegt mir nicht. Ich habe den Begriff Informatik 4.0 im Vortrag nur verwendet, um deutlich zu machen, wie stark sich die Informatik in den vielen Jahren weiterentwickelt hat und dass ich eine gewisse Diskrepanz sehe zwischen der wachsenden Bedeutung der Informatik und der Weiterentwicklung der theoretischen Kerne, wie Berechenbarkeit, Komplexitätstheorie und Gebieten wie formale Sprachen. Ich will hier nicht missverstanden werden. Im Gegensatz zu manchen meiner Kollegen, die darüber nachgedacht haben, ob der Begriff der Berechenbarkeit für verteilt ablaufende Systeme überhaupt noch Gültigkeit hat, glaube ich, dass diese Konzepte im Kern nach wie vor gültig sind, aber sie müssen erweitert werden und in Verbindung gesetzt werden mit der Art von Systemen, mit denen wir heute zu tun haben.

Weitergehende Fragen sind natürlich, inwieweit diese im Grunde artifiziellen, rein mathematischen Begriffe einen Zusammenhang zur wirklichen Welt haben. Das ist aber eine Frage für die Wissenschaftstheorie. Der andere Punkt, den Sie ansprechen, ist das Thema der globalen Vernetzung. Informatik überall ist ja längst Wirklichkeit. Über Smart Phones und andere Geräte, über das Internet und die Vielzahl der Informatiksysteme, die heute im Einsatz sind, sind die Menschen längst eingebunden in umfassende Systeme der Informatik, Cyber-physical Systems eben. Doch es wird viel zu wenig untersucht, wie stark das die Sicht der Menschen auf die Welt verändert, wie stark das die Verhaltensweisen der Menschen beeinflusst und wie wir die Systeme gestalten müssen, dass sie den Menschen in optimaler Weise nützen können. Gerade in Deutschland haben wir hier große Schwächen.

Ich hatte vor kurzem mit Albrecht Schmid, einem Kollegen aus Stuttgart, in einem Aufsatz in einer amerikanischen Zeitschrift (IEEE Computer, 2/2014) noch einmal versucht, dies darzustellen. Wir müssen die Systeme menschenzentriert gestalten.
Das ist übrigens ein anderer philosophischer Ansatz als die klassische künstliche Intelligenz – mit dem Ziel, nicht ein menschenähnliches Wesen im Rechner erschaffen, das ein Eigenleben führt, sondern Informatiksysteme zu bauen, die Menschen in einer umfassenden Weise nutzen und ihnen ermöglichen, in Arbeit und Freizeit mit ihren Problemen und Fragestellungen in einer viel geschickteren Art und Weise umzugehen. Ich glaube, wir müssen hierzu eigene Studiengänge einrichten und eine ganze Disziplin aufbauen.

BD: Einem Leser dieses Blogs gefiel ein Satz besonders gut, der in Ihrer Kurzfassung steht, nämlich: "Bisher zielten die Modelle der Informatik eher auf den Lösungsraum (die abstrakte Rechenmaschine) und weniger auf den Problemraum (die Welt der organisatorischen oder physikalischen Prozesse)." Der Leser fragte: Wo wird Prozessverständnis, Prozessdarstellung, Prozessumsetzung, Prozessanalyse, Prozessmethodik, Prozessarchitektur, Prozessmanagement usw. usw. in der Informatik unterrichtet? Wo bleibt der Informatiklehrstuhl, der sich dieses Themas ganzheitlich annimmt, mit den vielen neuen Herausforderungen, die sich insbesondere durch das IoT ergeben? Wer vermittelt dieses Wissen?

MB: Das ist schon wieder eine schwierige Frage, weil alle diese Begriffe, wie Prozess, Prozessverständnis und Prozessanalyse so vielschichtig sind. Wo findet sich der Begriff des Prozesses nicht überall – Rechenprozess, Geschäftsprozess, Produktionsprozess. Viele dieser Prozessbegriffe haben Ähnlichkeiten, aber sind doch wieder unterschiedlich.

Wir lehren natürlich an der TU München die wichtigen Prozessbegriffe, wie man Prozesse darstellt, wie man sie analysiert. Aber was ich im Grunde genommen noch wesentlicher finde, ist die Fähigkeit, die Kontexte, in denen Systeme laufen und die Prozesse, die in diesen Kontexten ablaufen, in einer Art und Weise zu erfassen und zu beschreiben, dass der Entwurf von Systemen dadurch eine ganz andere Qualität erhält. Das ist ein anderer Kernpunkt meines Vortrages. Heutige Systeme sind eng mit ihrem Kontext verbunden, arbeiten intensiv mit ihrer Umgebung zusammen. Wir müssen die Umgebung sehr genau verstehen, um entsprechende Systeme optimal gestalten zu können. Damit landen wir bei dem wichtigen Thema der Domänenmodellierung als Teil des Requirements Engineering. Hier ist sehr viel Potential für die Praxis, aber auch sehr viel Notwendigkeit für Forschung.

BD: Welche Fragen sollte die wissenschafts-theoretische Diskussion angehen, die Sie im Zusammenhang mit Informatik 4.0 fordern?

MB: Ich denke hier gibt es eine Fülle von Fragen. Eine der ganz großen Herausforderungen ist eine Zusammenführung der Modelle der Informatik mit den Modellen des Maschinenbaus und der Physik. Eine zweite wichtige Aufgabe ist, den Informatiker zu einem Lösungsentwickler heranzubilden. Er muss verstehen, wie Informatiksysteme in einem Kontext, der soziale, wirtschaftliche, technische, psychologische und noch viele andere Aspekte enthält zu konzipieren und auf Gültigkeit zu überprüfen und natürlich letztlich auch umzusetzen. Ich will gerade in diesem Zusammenhang noch einmal unterstreichen, für wie wichtig ich es halte, die Programmiertechnik zu beherrschen. Wie ich oben gesagt „Software eats the world“ – nur wer in der Lage ist, erstklassige Software zu schreiben, und das heißt letztlich auch Programmentwicklung, wird in der Lage sein, in diesem sich schnell entwickelnden Gebiet mitzuhalten. Das erfordert aber eine neue zukunftsorientierte Auffassung unseres Fachs Informatik. 

BD:
Lieber Herr Broy, haben Sie vielen Dank für dieses Interview. Es ist schon eine Weile her seit dem letzten Interview im März 2011. Ihre Gattin und Sie genossen damals gerade einen Seetag auf einer Kreuzfahrt zwischen Fidschi und Hawaii. Dieses Mal kamen die Antworten aus München, zwar nicht weniger schnell, aber dafür um so ausführlicher.

Keine Kommentare:

Kommentar veröffentlichen

Hinweis: Nur ein Mitglied dieses Blogs kann Kommentare posten.