Mittwoch, 30. März 2011

Zukunftsfähigkeit der IKT in Deutschland

Im Januar hatte ich in diesem Blog auf zwei Dokumente hingewiesen, die für den Dresdener IT-Gipfel vorbereitet worden waren. Eines stammte vom Münchner Kreis, das andere vom Zentrum für Europäische Wirtschaftsforschung (ZEW) in Mannheim. Da ich damit vermutlich Hoffnungen geweckt hatte, habe ich letzte Woche beide Berichte nochmals gelesen. Im Folgenden also einige Kommentare dazu. Die Abkürzung IKT steht für Informations- und Kommunikationstechnologie und Medien. Sie umfasst neben der Informatik auch die frühere Nachrichtentechnik und die Unterhaltungs­elektronik.

Zunächst zum Bericht des Münchner Kreises. In diesem Arbeitskreis sind neben einigen Professoren der Münchner Hochschulen (Eberspächer, Picot) auch die im süddeutschen Raum tätigen Kommunikationsfirmen vertreten (Siemens, Deutsche Telekom, Telefonica O2 und Vodafone), sowie die SAP AG. Das Dokument hat den Titel „Offen für die Zukunft – Offen in die Zukunft“ und umfasst etwa 170 Seiten. Im Wesentlichen wird über eine Umfrage unter deutschen und europäischen Experten berichtet, die im Jahre 2010 durchgeführt wurde. Drei große Komplexe werden behandelt: Kompetenzen, Sicherheit und neue Geschäftsfelder. 

Mit Kompetenzen sind hier die Fähigkeiten der Nutzer gemeint, die sie benötigen, um mit neuen IKT-Angeboten umgehen zu können. Es ist viel von der digitalen Spaltung (engl. digital divide) die Rede. Neben dem Zugang sollte auch der kompetente Umgang mit dem Internet ermöglicht werden. Die Verantwortung dafür, dass Jugendliche in dieser Hinsicht nicht auf sich allein gestellt bleiben, liege beim öffentlichen Bildungswesen, also beim Staat. Dass man möglichst früh lernen sollte, in der Flut von Informationen Qualität und Relevanz zu beurteilen, klingt zwar schön. Wie dieses Ziel erreicht werden kann, wird jedoch offen gelassen. Neu für mich war die Existenz einer 70:20:10-Regel. Danach erfolge das Lernen zu 70% bei der Arbeit (engl. on the job), zu 20% von Kollegen und zu 10% durch Information. Diese 10% kamen in der Vergangenheit aus Büchern, in Zukunft werden sie wohl aus dem Internet kommen. Wenn das stimmt, erwarten wir eindeutig zu viel vom Internet.

Bei der Frage der Sicherheit seien Nutzer und Anbieter gleichermaßen gefordert. Der Staat müsse nur für eine adäquate Regulierung sorgen. Als Chancen für die Zukunft wird eine Liste von 18 Geschäftsfeldern vorgestellt, beginnend mit Sicherheits­technologie, über Energiesteuerung, Gesundheitsvorsorge und Internet der Dinge bis zu Semantic Web und Augmented Reality. Es fehle lediglich an Risikokapital, um hier erfolgreich loslegen zu können. In den IKT-Kernbereichen – so heißt es − sei wohl der Zug für Deutschland abgefahren.

Die ZEW-Studie hat den Titel „ITK als Wegbereiter für Innovationen“ und ist (nur) 48 Seiten lang. Sie wurde von BITKOM in Auftrag gegeben und vom Bundeswirtschafts­ministerium finanziert. Man beachte die gegenüber dem andern Bericht geänderte Abkürzung. Sie steht für Informations- und Telekommunikationstechnologien. Die Studie soll zeigen, dass die ITK-Branche zu den innovativsten Branchen Deutschlands zählt. Das wird mit einer Menge von Zahlen belegt. Leider bin ich nicht in der Lage, alle Zahlen zu verifizieren. So wird z.B. die Größe der Gesamtbranche im Jahre 2010 durch folgende drei Zahlen charakterisiert: Anzahl der Unternehmen 115.000, Beschäftigte 840.000, Umsatz 240 Mrd. Euro. Erst wenn man die Aufteilung in Teilbranchen sieht, kann man sich ein Gefühl dafür verschaffen, über was geredet wird.

  ITK-Teilbranchen in 2010

Mit der ersten Zeile sind Computer-Systeme, periphere Geräte und Unterhaltungs­elektronik (engl. consumer electronic) erfasst. Die Software-Branche müsste nach diesen Angaben im Jahre 2010 etwa 330.000 Beschäftigte gehabt haben. Diese Größenordnung stimmt ganz gut mit der Zahl 300.000 für die Primärbranche überein, die ich in meinem früheren Beitrag über die Software-Industrie für das Jahr 2005 erwähnt hatte. Die eigentlichen Aussagen des Berichts sind von der Art, dass von der ITK-Branche etwa 7 % des Umsatzes in Innovationsprojekte reinvestiert werden, etwa doppelt so viel wie in einigen andern Branchen. Nur die Pharma- und die Automobil­industrie sind innovativer. Als Innovationsleistungen werden Forschung und Ent­wicklung gerechnet, aber auch Marketing und Investitionen in neue Netze und Geräte. Andere zentrale Aussagen sind, dass rund 400 von 1000 befragten Unternehmen im Jahre 2010 ITK-basierte Innovationen eingeführt haben, und dass 12 % aller ITK-Patentanmeldungen aus Deutschland stammen.

  Patentanmeldungen im Jahre 2010 für IPC ‚G06F‘

Der letzten Zahl versuchte ich etwas auf den Grund zu gehen, indem ich in öffentlich verfügbaren Patentdatenbanken nachschaute. Das Problem dieser Zahl besteht darin, dass weder der Zeitraum angegeben ist, noch das Gültigkeitsgebiet, noch die internationale Patentklassifikation (IPC). Ich habe daher in der obigen Tabelle die Anzahl der Anmeldungen des Jahres 2010 sowohl für das Europäische Patentamt (EPA) wie für die Weltpatentorganisation (WIPO) für den Patentklasse G06F aufgelistet. Dieser Klasse wird die Mehrzahl der Informatik-Patente zugeordnet, nicht aber die TK-Erfindungen. Innerhalb dieser Klasse wurden von in Deutschland wohnenden Erfindern beim EPA etwa 9% der Patente angemeldet, von den WIPO-Patenten jedoch nur 5,1%. Die Aussage ist also nur bedingt richtig.

Die WIPO listet alle Patente, die bei einem ihrer 184 Mitgliedstaaten angemeldet wurden. Interessant ist, dass bei den WIPO-Patenten China Deutschland bereits vom dritten Platz verdrängt hat. Taiwan ist kein WIPO-Mitglied. Die Zahlen für Indien konnte ich nicht feststellen. Erwähnen möchte ich einige der Firmen, die bei deutschen Informatik-Erfindungen des Jahres 2010 auftauchen. Es sind ABB, AMD, BMW, Bosch, Conti, Deutsche Telekom, Ericsson, Fraunhofer-Gesellschaft, Giesecke & Devrient, IBM, Philips, SAP, Siemens, Software AG und Telefonica O2.

Einige Aussagen in dem Bericht haben mich etwas überrascht, etwa die, dass 35% der befragten Unternehmen heute bereits Clouds nutzen. Hierbei ist unklar, wie repräsentativ diese Unternehmen für die Gesamtwirtschaft sind. Mit Bedauern wird festgestellt, dass Deutschland – außer bei Unternehmens-Software – technologisch und wirtschaftlich nur Mitläufer ist. Vor allem so richtungsweisende Innovationen wie Google, iPad, iPhone und Facebook kamen von außen. Als neue Innovationstrends werden Cloud Computing, mobiles Internet und intelligente Netze genannt. Mit diesem Allerweltsbegriff ist sowohl der flächendeckende Ausbau der Bandbreiten gemeint wie die Erschließung neuartiger Anwendungen. Diese werden vor allem in den Bereichen öffentliche Verwaltung, Gesundheitswesen, Energieverteilung und Verkehrsteuerung (z.B. für Elektroautos) gesehen. Was hier recht prosaisch klingt, erhält natürlich ein ganz anderes Flair, wenn man für das Anwendungsgebiet das entsprechende englische Wort verwendet und ein kleines ‚e‘ davorsetzt, wie in eGovernment. 

"Für Deutschland als eine der führenden Industrienationen ist eine leistungsstarke einheimische ITK-Industrie von großer Bedeutung“ heißt es apodiktisch im Manage­ment Summary (S.9). Daraus wird gefolgert, dass gerade bei den erwähnten neuen Trends sich Deutschland als Innovationsführer positionieren kann und soll. Man fragt sich, wer sich dadurch angesprochen fühlt, hoffentlich nicht nur Regierungsbeamte.

Wie Sie bemerkt haben werden, bin ich nicht der Ansicht, dass der zu erwartende Wissensgewinn es dringend erforderlich macht, die beiden Berichte im Detail zu studieren. Beim ersten Bericht besteht sogar die Gefahr, dass man das Abfragen von Expertenmeinungen mit einer echten Marktanalyse verwechselt. Im zweiten Fall wurden einige Daten herausgefiltert, die zu einer vorgegebenen Hypothese passten. Ob es auch Daten gibt, die der Hypothese widersprechen, wird nicht erwähnt. Mit beiden Studien wird der Politik zugearbeitet. Man kann den Autoren deshalb nicht vorwerfen, dass sie mehr politisch argumentieren als wissenschaftlich.

Montag, 28. März 2011

Erdrutsch im Südwesten

Nachdem gestern die Wähler in meinem Bundesland Baden-Württemberg eine historische Wende für unser Ländle herbeigeführt haben, möchte ich dazu ein paar Worte sagen. Ich tue dies vor allem im Hinblick auf meine Leserinnen und Leser außerhalb des Landes.

Was geschah, ist in erster Linie ein Ausdruck demokratischer Gesinnung. Nach Karl Popper ist Demokratie nämlich primär die Möglichkeit, die Regierung gewaltfrei abzuwählen. Demoskopen hatten vor der Wahl die Wechselstimmung als den dominierenden Trend erkannt. Baden-Württemberg war neben Bayern das einzige Bundesland, das seit seiner Gründung vor 56 Jahren von derselben Partei regiert wurde. Die beiden letzten Ministerpräsidenten lassen sich leider nicht als besondere politische Talente beschreiben. Günter Oettinger tappte von einem Fettnäpfchen in das andere (Filbinger-Rede, Kauf von Kunstwerken, die bereits dem Lande gehörten, usw.), bis dass die Kanzlerin ihn nach Brüssel weglobte.

Sein Nachfolger Stefan Mappus gebärdete sich als Rambo, der seine Politik mit Polizeigewalt durchzusetzen versuchte. Spätere Beteuerungen, von den Plänen der Polizei für den Einsatz von Wasserwerfern am 30. September im Stuttgarter Schlossgarten nichts gewusst zu haben, wurden ihm nicht geglaubt. In dem Schlachtruf ‚Mappus muss weg!‘ waren sich die grünen Fundis am Bahnhof mit den Bewohnern der Halbhöhenlagen einig. Kaum hatte er mit Heiner Geißlers Hilfe die Stimmung im Lande etwas beruhigt, legte er mit einer Nacht-und-Nebel-Aktion nach. Er erwarb den von Franzosen gehaltenen Aktienbesitz an der Energieversorgung Baden-Württembergs (EnBW) zurück, ohne seinen eigenen Finanzminister oder den Landtag zu informieren. Dass die Laufzeitverlängerung der dem EnBW-Konzern gehörenden AKWs Teil einer Strategie war, pfiffen die Spatzen von den Dächern. Aber auch der Koalitionspartner FDP verfügt zurzeit über keine politischen Zugpferde, weder im Land noch im Bund. Schließlich riss der Tsunami in Japan beiden Parteien emotional den Teppich unter den Füßen weg. Die Wahl wurde zwar nicht in Japan entschieden, wurde aber von den dortigen Ereignissen stark beeinflusst.

Da die Landtagswahl von vielen Kommentatoren zur Schicksalswahl hochgejubelt worden war, schlug sich dies in einer relativ hohen Wahlbeteiligung nieder: 65,7% gegenüber 53,4% vor fünf Jahren. Die offizielle Ergebnisliste ist für die im Landtag vertretenen Parteien in folgender Tabelle zusammengefasst. Dabei stehen hinter den Prozentanteilen der Stimmen die Zahl der Parlamentssitze (in Klammern).

  Wahlergebnisse Baden-Württemberg, Große Parteien

Insgesamt verfügt Rot-Grün über 71 Sitze gegenüber 67 für Schwarz-Gelb. Der Landtag umfasst 70 Direktmandate, von denen die CDU 60, also 85%, gewann. Hätten wir ein Mehrheits­wahlrecht wie in Großbritannien oder im ehemaligen deutschen Kaiserreich, wäre das die Sitzverteilung. Neben einem Wahlkreis in Mannheim, der traditionell der SPD gehört, gewannen die Grünen zum ersten Mal neun Wahlkreise direkt. Diese liegen alle in Universitätsstädten: drei in Stuttgart, zwei in Freiburg, sowie je einer in Heidelberg, Konstanz, Mannheim und Tübingen. In Tübingen gab es bereits bei früheren Wahlen Wahlbezirke, in denen die Grünen über 70% der Stimmen erhielten.

Auch die kleinen Parteien, die in Fernsehsendungen meist nur als Summe erwähnt werden, verdienen einen detaillierten Blick. In der zweiten Tabelle sind die fünf der 15 kleinen Parteien erwähnt, die eine größere Stimmenzahl erhielten. Die Linke hat zwar Stimmen dazu gewonnen, ihr Stimmenanteil sank jedoch, da die Wahlbe­teiligung höher war. Bei den Rechtsextremen glichen Verluste (REP) und Gewinne (NPD) sich aus. Eine ökologische Partei links von den Grünen (ÖDP) verdoppelte sich, aller­dings auf niedrigem Niveau. Besonders bemerkenswert ist das Abschneiden der Piraten. Sie erhielten in einem Land mit 12% der Wahlberechtigten des Bundes genau 12% der Stimmen wie bei der Bundestagswahl im Jahre 2009. Das deutet auf eine Stabilisierung und Verfestigung der Bewegung hin. Bekanntlich sind die Piraten diejenige Partei, von der sich besonders viele Informatiker angesprochen fühlen, da sie sich für die Abschaffung des Urheberrechts stark macht.

  Wahlergebnisse Baden-Württemberg, Kleine Parteien

Bezüglich dessen, was sich in der Landespolitik nach der Wahl ändern wird, bin ich relativ gelassen. Sowohl Winfried Kretschmann, der Chef der Grünen und vermutliche zukünftige Ministerpräsident wie sein Kollege Nils Schmid von der SPD sind keine Revolutionäre. Sie sind in erster Linie gute Schwaben, was heißt, dass sie den Laden zusammenhalten werden. Von den Grünen ist eine Energiepolitik zu erwarten, die nicht am Atomausstieg rütteln wird. Bezüglich des Projekts Stuttgart 21 stehen die Grünen den Gegnern sehr nahe. Die SPD ist offiziell für das Projekt, will aber noch eine Volksabstimmung durchführen. Ob beide die Schulpolitik schnell in Richtung Gesamtschule umkrempeln und die Studiengebühren abschaffen werden, bleibt abzuwarten. Auch ihnen klingt der Wahlslogan der schwarz-gelben Vorgänger-Regierung in den Ohren: Baden-Württemberg hat nicht nur die niedrigste Arbeits­losigkeit in ganz Deutschland, sondern auch die meisten Erfinder und die meisten Elite-Universitäten. Sie müssen jetzt beweisen, dass dies auch so bleiben kann ohne eine konservative Regierung im Dauerabonnement.

Samstag, 26. März 2011

Die heutigen Software-Labors der IBM in Europa

In dem Beitrag über Horst Remus in diesem Blog wurde Bezug genommen auf die europäischen Labors der IBM und speziell auf den Aufbau ihrer Software-Kompetenz. Auf einer Tagung in Amsterdam im November 2007 hatte ich ein wichtiges Teilgebiet aus der Anfangsphase dieser Aktivitäten ausführlich beschrieben, nämlich das Gebiet des Compilerbaus. Entgegen der Planung des Veranstalters wurden die Vorträge der Tagung nie veröffentlicht. Ich stelle daher meinen Beitrag online zur Verfügung.


Ursprüngliche IBM-Laboratorien in Europa

Wie in der hier wiedergegebenen Tab. 2 dieses Vortrags dargestellt, sind von den ursprünglich fünf Labors heute nur noch Böblingen und Hursley in der Software-Entwicklung aktiv tätig. Lidingö und Uithoorn wurden zu nationalen Vertriebszentren. La Gaude spielt die Rolle eines europäischen Beratungs- und Demozentrum für integrierte und netzbasierte Anwendungen. Wurde von sechs Labors gesprochen, dann wurde das Wiener Labor mitgezählt. Weltbekannt wurde es durch die formale Definition von PL/I. Es war ursprünglich kein Entwicklungslabor. Es war während der 1980er Jahre in der Programmprodukt-Entwicklung tätig, ist aber inzwischen aufgelöst. Das Labor in Zürich ist ein reines Forschungslabor.

Hursley hat seine starke Position auf dem Gebiet der Transaktionsmonitore ausge­baut, und ist heute mit der Produktfamilie MQ (dem Nachfolgeprodukt von CICS) im Markt vertreten.

 
IBM Labor Böblingen

In Böblingen wurden die Betriebssystem-Entwicklung im VSE- und MVS-Bereich um die weltweite Linux-Verantwortung erweitert. Linux wurde nicht nur an Großrechner  angepasst, es wurde auch für ein Mehrkern-Chip (Cell Broadband Engine) optimiert. Unter dem Produktnamen Tivoli werden Lösungen für Cloud Computing, Virtuali­sierung und Automatisierung von Abläufen in Rechenzentren entwickelt. Hier arbeitet das Böblinger Labor eng mit der SAP AG in Walldorf zusammen. Außerdem wurden alle ursprünglich im Programmprodukt-Entwicklungszentrum (PPDC) Sindelfingen beheimaten Aktivitäten im Labor Böblingen zusammengefasst. Daraus entstanden eine Reihe von Workflow- und Data-Mining-Produkten, die als Teil der DB2-Produktfamilie vermarktet werden. Böblingen ist auch verantwortlich für das Portal-Produkt WebSphere. Darüber hinaus beteiligen sich einige Gruppen an der Entwicklung von Produkten der Lotus-Familie.

Sowohl Hursley wie Böblingen beschäftigen im Software-Bereich je etwa 1000 Mitarbeiter. Beide Labors besitzen auch noch eine Kompetenz im Hardware-Bereich. Bezogen auf die Zahl der Mitarbeiter sind die Hardware-Abteilungen in beiden Labors heute wesentlich kleiner als die Software-Funktionen.

In den letzten 10 Jahren kam es zu einer Reihe von Neugründungen, sowohl in Europa wie in Asien und Südamerika. Neue europäische Labors gibt es in Dublin (mit Außenstellen in Cork und Galway), Rom, Krakau und Moskau. Sie umfassen jeweils zwischen 300 bis über 1000 Mitarbeiter. Durch Akquisitionen übernommen wurden u.a. Lokationen in Stockholm, Paris, Helsinki, Delft, Warschau, Zürich und Genf. Dabei sind diese Labors eher spezielle Entwicklungsgruppen mit 15 bis 50 Entwicklern. Erwähnen möchte ich, dass IBM ihre größten Labors heute in Indien und China betreibt. Allein im Großraum von Bangalore sind für IBM etwa 40.000 Mitarbeiter in Forschung, Entwicklung und Dienstleistungen tätig. Die IBM Indien beschäftigt zurzeit über 130.000 Mitarbeiter, im Vergleich zu etwa 20.000 bei der IBM Deutschland und 400.000 weltweit.

Donnerstag, 24. März 2011

Erfahrungen mit maschineller Sprachübersetzung

Seit einigen Jahren lasse ich hin und wieder Texte aus dem Deutschen maschinell ins Englische übersetzen, um sie nicht Deutsch sprechenden Freunden und Bekannten zur Kenntnis zu bringen. Ich benutze dafür mal kostenlose, im Internet zur Verfügung stehende Programme, mal ein kommerzielles Produkt, das ich installiert habe.

Insgesamt ist die Qualität der Übersetzung bei den mir bekannten Programmen schon ganz beachtlich, aber noch keineswegs zufriedenstellend. Es lohnt sich aber in jedem Falle die maschinelle Übersetzung als Basis zu verwenden. Man spart sich sehr viel Schreibarbeit. Ich mache die notwendigen Korrekturen wesentlich schneller als den ganzen Text neu einzutippen. 

Um den Stand der Technik zu zeigen, habe ich zwei Texte aus diesem Blog als Beispiele gewählt. Der eine ist reines Zeitgeschehen, der andere geht etwas ins Fachliche. Ich gebe drei Übersetzungen wieder, ohne zu sagen, von welchem Programm sie stammen. Wer es unbedingt wissen will, kann mich fragen. Keine der drei Übersetzungen ist vollkommen fehlerfrei, aber alle sind als Basis für die Weiter­bearbeitung brauchbar. Erwähnen möchte ich noch, dass es – meist für einen Aufpreis – spezielle Fachlexika gibt, so etwa für IT. Ich habe keines benutzt.

Beispieltext vom 14.3.

D: Verblüffend für viele Beobachter ist, dass in den ganzen Umwälzungen der letzten Monate das Terrornetzwerk Al Qaida so gut wie verstummt ist. Es scheint sich herauszustellen, dass es weder eine politische noch eine soziale Massenbewegung repräsentiert. Selbst eine so außergewöhnliche Aktion wie die am 11. September 2001 in New York und Washington, war nicht das Werk von im Volke verwurzelten revolutionären Führern. Ähnlich wie bei der RAF in Deutschland rekrutierten die Täter sich aus selbsternannten Eliten. Es waren alles Söhne reicher Familien aus Ägypten und Saudi-Arabien, die in der deutschen Diaspora von muslimischen Hasspredigern radikalisiert wurden. Wenn ihnen jetzt das eigene Volk zeigt, wie gut man auf sie verzichten kann, besteht die Chance, dass diese Bewegung austrocknet. Schön wäre es.

E1: Observer is that in all the radical changes of the last months the terror network Al Qaida is as well as ceased amazing for many. It seems to point himself out that another social mass movement represents a political it. Even an action as unusual as this one on September 11th, 2001 in New York and Washington was not the work of revolutionary leaders rooted in the people. The perpetrators similarly recruited themselves as in the case of the RAFs from self-appointed elites in Germany. These all were sons of rich families from Egypt and Saudi Arabia which were radicalized by Muslim preachers of hate in the German diaspora. If the people of one's own shows them now how well one can do without her, passes the chance that this movement dries out. It would beautiful be.

E2: Amazingly to many observers is that is as good as silent in the whole upheaval of recent months, the terrorist network Al Qaeda. It seems to highlight that there is neither a political nor a social mass movement represented. Even such an extraordinary action on the 11th as September 2001 in New York and Washington was not the work of the people rooted revolutionary leaders. Similar to the RAF in Germany recruited the perpetrators from self-appointed elites. They were all sons of wealthy families from Egypt and Saudi Arabia, the radicalized in the German Diaspora of Muslim hate preacher. If they now show their own people, how good you can do without them, there is a chance to dry out the movement. It would be nice.

E3: For many observers it is astonishing that in the whole circulations of the last months the terrorism network Al Qaida grew silent so well. It seems to turn out that it represents neither a political still another social mass movement. Even a as unusual action as on 11 September 2001 in New York and Washington, was not the work of revolutionary leaders rooted in the people. Similarly as with the RAF in Germany the authors recruited themselves from self-appointed elite. Were all sons enrich families from Egypt and Saudi Arabia, which were radicalized in the German Diaspora by Muslim Hasspredigern. If them the own people shows now, how well one can do without it, the chance exists that this movement drains. It would be beautiful.

Beispieltext vom 22.3.

D: Hier liegt ein gravierendes Problem. Die sehr schnell stärker werdende Bedeutung der Software erfordert Veränderungen in der Organisation und in den Prozessen bei Herstellern und Zulieferern, die von Fachleuten geplant und umgesetzt werden müssen. Analysen zeigen gravierende Defizite in den Kompetenzen. Für Informatiker ist die Automobilindustrie aber nur attraktiv, wenn sie dort nicht nur ihr Wissen und Können ungebremst entfalten, sondern sich auch weiter entwickeln können. Das ist noch nicht hinreichend der Fall, auch wenn in Einzelfällen Informatiker bereits in höchste Verantwortung gekommen sind.

E1: A serious problem lies here. The significance of the software being very fast more strongly requires changes in the organisation and in the processes among manufacturers and suppliers who must be planned and converted by experts. Analyses show serious deficits in the competences. For computer scientists, however, the motor industry is only attractive if they without breaking develop not only her knowledge there but can develop also further. This is not adequately the case yet even if in individual cases computer scientists have already come into the highest responsibility. 

E2: This is a serious problem. The rapidly-increasing importance of software requires changes in organization and in the processes of manufacturers and suppliers that need to be planned and implemented by professionals. Analysis shows significant gaps in the competencies. For computer scientists the automotive industry is only attractive if they do not only their knowledge and skills to develop unchecked, but also can develop. That is not sufficiently the case, even if computer already come in individual cases in the highest risk.

E3: Here a serious problem lies. Those very fast more strongly becoming meaning of the software requires changes in the organization and in the processes with manufacturers and suppliers, that must be planned and converted by specialists. Analyses show serious deficits in the authority. For computer scientists the automobile industry is however attractive only if they can a not only their knowing and being able without brakes there unfold, but also further develop. That is not yet sufficiently the case, even if in individual cases computer scientists already came into highest responsibility.

Über die von den einzelnen Programmen verwandten Methoden der Sprachübersetzung besitze ich leider keine genauen Informationen. Ich vermute, dass zumindest in einem Falle ein statistischer Ansatz angewandt wird. Als grobe Bewertung möchte ich folgendes sagen:  Auf den Sprachstil bezogen gefällt mir das Programm 2 etwas besser als die andern, dafür ist aber die Wortwahl bei Programm 3 manchmal besser. Programm 1 schneidet in keinem der beiden Aspekte besonders gut ab. Alle drei Programme sind noch verbesserungsbedürftig. Ich hätte nichts dagegen, wenn durch diesen Beitrag eine weiterführende Diskussion angestoßen würde.

Dienstag, 22. März 2011

Manfred Broy über Informatik im Auto

Manfred Broy ist seit 1989 Informatik-Professor an der TU München. Davor war er an der Universität Passau tätig. Sein Fachgebiet ist Software und Systems Engineering. Broy ist Träger der Konrad-Zuse-Medaille und Fellow der Gesellschaft für Informatik (GI). Er war Leibnizpreisträger der DFG und ist Mitglied der Deutschen Akademie der Naturforscher „Leopoldina“ sowie der Europäischen Akademie der Wissenschaft. Er hatte in München Mathematik und Informatik studiert und bei F.L. Bauer promoviert.


Bertal Dresen (BD): Das Februar-Heft des Informatik-Spektrums war dem Thema Informatik in der Automobilindustrie gewidmet. Sie und Ihre Mitautoren beschrieben darin die Anforderungen und Anwendungen im ganzen Lebenszyklus eines Fahrzeugs, von der Planung über den Entwurf, die Fertigung, den Vertrieb bis zur Wartung. Wie ich weiß, haben Sie sich schon länger mit den Problemen software-basierter Funktionen im Auto beschäftigt. Was hat sich hier Ihrer Meinung nach, was Aufgaben und Funktionalität der Software im Auto betrifft, in den letzten 10-15 Jahren verändert?

Manfred Broy (MB): Die Funktionalität wird immer umfassender – übergreifender. Waren zu Beginn, und der liegt über 40 Jahre zurück, nur einzelne isolierte Funktionen durch Software realisiert, so sind heute Tausende von software-basierten Funktionen in modernen Fahrzeugen vorzufinden – mit oft starken, wechselseitigen Abhängigkeiten. Das erfordert ein ganzheitliches Vorgehen. Themen der Architektur und der systematischen Erfassung der Anforderungen gewinnen entscheidende Bedeutung. 

BD: Inwieweit ist die Sorge (noch) berechtigt, dass an Software meist erst im Nachherein gedacht wird, wenn die Hardware-Struktur des Autos (Busse, Steuereinheiten) bereits festliegt? Oder anders herum gefragt, ist Software nicht meist eine Zugabe, die dazu dient die normalerweise in Hardware vorgesehenen Funktionen des Autos zu verbessern? Gibt es Gegenbeispiele?

MB: Das ändert sich stark – bisher war es wohl mehr so, wie Sie es beschreiben. Aber durch die schiere Größe und die Verschiebung der Kosten in Richtung Software ändert sich das langsam. Langfristig können nur Software-Produktlinien helfen, Komplexität, Kosten und Qualität in den Griff zu bekommen.

BD: Wie stark ist in der Automobilindustrie der Gedanke verbreitet, dass jemand die Software als eigenständiges Produkt nur einmal entwickelt, um sie dann in mehreren Fahrzeugtypen (auch verschiedener Hersteller) zu verwenden? Wenn schon nicht für Steuerung- und Assistenzfunktionen, so müsste sich dies doch für das Infotainment geradezu aufdrängen. Oder ist die Idee eines eigenen Software-Markts zu verwegen?

MB: Die Umsetzung der Idee findet sich bereits, stärker bei Zulieferern als bei Herstellern. Ein Beispiel sind Motormanagementsysteme. Bei den Herstellern gibt es solche Ideen bisher stärker für die Plattformen, wie AutoSAR. Aber die Konzepte brauchen ihre Zeit. Es würde mich nicht wundern, wenn eine konsequentere Umsetzung der Idee von neuen systemorientierten Firmen kommt. Eine Vorstellung wäre quasi ein „SAP-System“ für die Software im Fahrzeug.

BD: Inwieweit ist es entscheidend, dass die großen Hersteller relativ wenig Funktionen eines Autos selbst entwickeln und meist nur Aggregate und Teilsysteme integrieren, die sie von Zuliefern beziehen? Oder anders ausgedrückt, behindert die Struktur der Industrie, dass es zu optimaleren Lösungen kommt? Oder wird sich das Ökosystem der Branche gfs. ändern?

MB: Hier ist der Wandel bereits eingetreten, ohne dass sich alle Beteiligten dessen schon voll bewusst sind. Die Automobilentwicklung ist vom Baukastensystem, bei dem Teile zusammengefügt wurden, in die Phase des Systems Engineerings eingetreten. Nicht Bauteile werden mehr zusammengebaut, sondern Teilsysteme werden integriert. Besonders drastisch zeigt sich das in den heute viel zu hohen Aufwänden für Tests in der Integration und endlose Fehlerkorrekturen. Unsere Untersuchungen zeigen, dass entschlossenes Verlagern von Aufwänden in die Anforderungs- und Architekturfestlegung enorme Kostenersparnisse versprechen.

BD: Ist die Ausbildung, die Informatiker normalerweise erhalten, überhaupt dafür geeignet, im Automobilbau signifikante Beiträge zu leisten? Oder stehen sie auf verlorenem Posten gegenüber Maschinenbauern und Elektroingenieuren, die ja ohnehin für die Software verantwortlich sind, mit denen Sensoren und Aktuatoren gesteuert werden?

MB: Hier liegt ein gravierendes Problem. Die sehr schnell stärker werdende Bedeutung der Software erfordert Veränderungen in der Organisation und in den Prozessen bei Herstellern und Zulieferern, die von Fachleuten geplant und umgesetzt werden müssen. Analysen zeigen gravierende Defizite in den Kompetenzen. Für Informatiker ist die Automobilindustrie aber nur attraktiv, wenn sie dort nicht nur ihr Wissen und Können ungebremst entfalten, sondern sich auch weiter entwickeln können. Das ist noch nicht hinreichend der Fall, auch wenn in Einzelfällen Informatiker bereits in höchste Verantwortung gekommen sind.

BD: Über das rasche Zustandekommen dieses Interview habe ich mich sehr gefreut, umso mehr als die Antworten nicht in der normalen Arbeitsumgebung entstanden sind, sondern während eines Seetags auf einer Kreuzfahrt zwischen Fidschi und Hawaii. Herrn Broy und Gattin wünsche ich weiterhin erholsame Tage auf See.

Sonntag, 20. März 2011

Quantenphysik für Nicht-Physiker

Fast alles, was ich über Quantenphysik weiß, verdanke ich meinem Freund und Ex-Kollegen Hans Diel. Mehrmals trafen wir uns in den letzten Jahren, um Teilaspekte dieser Wissenschaft und Weltsicht zu diskutieren. Es waren nicht nur die der landläufigen Intuition widersprechenden Theorien und Erkenntnisse, die uns faszinierten, sondern auch die allgemeine Situation der einst so stolzen Physik. Diese Gespräche sowie die Lektüre einiger einschlägiger Bücher bewogen mich dazu, mir gedanklich zurechtzulegen, was uns heute die Quantenphysik über die Natur sagt. Da ich kein Physiker bin, beschränke ich mich auf einige Grundkonzepte. Dass ich dabei teilweise meine eigene Terminologie verwende, möge man mir nachsehen. Ich gebe nur einige wenige Hinweise auf Namen von Wissenschaftlern und weiterführendes Material. Dabei ist Wikipedia sehr oft das Ziel meiner Verweise, da die dortigen Einträge zu Themen aus der Physik vorwiegend an Laien gerichtet sind.

Quantenphysik ist der Teil der Physik, der sich mit den Dingen unterhalb dessen befasst, was Biologie und Chemie interessiert. Dort sind es Atome und Moleküle und daraus sich aufbauende Strukturen. Hier geht es um das Innere von Atomen und um elektromagnetische Felder. Im Mittelpunkt steht fast immer das Bohrsche Atommodell, benannt nach dem Dänen Niels Bohr (1885-1962). Es reflektiert eine sehr verbreitete Auffassung und bildet auch die Basis der folgenden Ausführungen.

Ein Atom besteht danach aus einem positiv geladenen Kern und negativ geladenen Elektronen. Die uns bekannten chemischen Elemente unterscheiden sich durch die Anzahl der Elektronen, die den Atomkern einhüllen. Gibt es mehrere Elektronen, so können sich diese auf unterschiedlichen Energie-Niveaus befinden. Allerdings können sich nie zwei Elektronen mit genau den gleichen Eigenschaften (Energie, Spin) auf demselben Niveau befinden. Dieses so genannte Ausschließungsprinzip wurde von Wolfgang Pauli (1900-1958) formuliert

Um gewisse Spektrallinien zu erklären, muss man sich diese Niveaus nicht als kreisförmige, sondern als elliptische Bahnen von Teilchen vorstellen. Wird Energie zugeführt‚  springt ein Elektron von einer energetisch niedrigeren Bahn auf eine energetisch höhere Bahn. Bei Verlust von Energie erfolgt der Sprung in der umgekehrten Richtung. Die Energiezufuhr bzw. -abgabe erfolgt in diskreten Einheiten, auch Quanten genannt. Dieser Quantensprung erfolgt nach den Regeln der Quantenfeldtheorie und ohne kontinuierlichen Übergang. Der Zeitpunkt, wann ein Elektron auf eine Energiezufuhr reagiert, ist nicht genau vorherzusagen. Die auf Richard Feyman (1918-1988) zurückgehenden Feynman-Diagramme beschreiben die Interaktionen nur schematisch. In der hier eingefügten Abbildung stellt die Wellenlinie die Interaktion zweier Teilchen dar. 



  Beispiel eines Feynman-Diagramms (Quelle Wikipedia)
 (Zeitachse von links nach rechts, Ort von unten nach oben)


Der Ursprung der Quantenphysik geht auf Max Planck (1858-1947) zurück, der im Jahre 1900 entdeckte, dass die Strahlung schwarzer Körper nicht kontinuierlich erfolgt, sondern nur in diskreten Energiepaketen. Photonen (so werden Lichtquanten heute meist genannt) interagieren mit Elektronen, indem sie Energie austauschen. Desgleichen interagieren Elektronen mit Elektronen, und Photonen mit Photonen. Elektronen und Photonen, ja die gesamte Materie, zeigen sowohl Teilchen- wie Welleneigenschaften. Im subatomaren Bereich treten die Welleneigenschaften häufiger in Erscheinung als die Teilcheneigenschaften.

Ort und Impuls eines Teilchens lassen sich nie gleichzeitig mit hoher Genauigkeit bestimmen. Dieses Phänomen wird als Heisenbergsche Unschärferelation bezeichnet, entdeckt von Werner Heisenberg (1901-1976). Dabei geht es nicht um eine gegenseitige Beeinflussung von Objekt und Messgerät (wie man dies als Nicht-Physiker vermuten könnte). Beobachtungen oder Messungen im sub-atomaren Bereich erfolgen oft durch den Austausch von Energiequanten, meist im hochfrequenten Bereich, z.B. durch Röntgenstrahlen (ob es ‚nicht-invasive‘ Methoden gibt, ist mir nicht bekannt). Durch die hohe Energie wird natürlich der Impuls verändert. Auf Max Born (1882-1970) geht die Auffassung zurück, dass alle Messgrößen im subatomaren Bereich nur als statistische Wahrscheinlichkeiten interpretiert werden können. Das berühmte Doppelspaltexperiment suggeriert, dass der Ort eines Teilchens solange unbestimmt oder unscharf ist, bis dass er gemessen wird (etwas, was in besonderem Maße der Intuition widerspricht).

Photonen oder Elektronen können paarweise auftreten und bilden dabei eine Art System. Sie scheinen sich an die gemeinsame Vergangenheit zu erinnern und reagieren (manchmal) so, als ob sie verbunden (‚verschränkt‘) wären. Im Falle der so genannten Quantenverschränkung findet keine Kommunikation im üblichen Sinne statt, d.h. es werden keine Teilchen ausgetauscht. Es handelt sich demnach auch um kein Phänomen, bei dem die Lichtgeschwindigkeit überschritten wird. Ob es jemals für die Kommunikation zwischen Rechnern benutzt werden kann, ist äußerst fraglich. An dieser Stelle grenzt die heutige Physik an Magie und Mystik − so erscheint es mir als Laien.

Die hier gewählte Darstellung der beschriebenen Phänomene entspricht im Wesentlichen der Kopenhagener Deutung der Quantenphysik. Von Niels Bohr maßgeblich bestimmt, vertritt diese Schule, zu der auch Born, Heisenberg und Pauli gehörten, eine dem Positivismus nahestehende Weltsicht. Der Positivismus hält nur das für real, was man beobachten kann. Bohrs schärfster Widersacher war Albert Einstein. Ihm widerstrebte es, dass im subatomaren Bereich die bekannten Naturgesetze nicht mehr gelten sollten, vor allem Kausalität und Lokalität. Kausalität heißt, es gibt keine Wirkung ohne Ursache. Mit Lokalität ist das Prinzip gemeint, dass physikalische Prozesse nur auf ihre unmittelbare Umgebung wirken können. Einstein überlegte sich mehrere Gedankenexperimente, um Bohr in Verlegenheit zu bringen. In jedem Falle fand Bohr zwar eine Antwort, sie waren aber nicht immer sehr überzeugend. Am schwersten tat sich Einstein damit, dass Bohr und seine Anhänger leugneten, dass es eine physikalische Realität gibt, auch dann wenn sie nicht beobachtet wird. Endgültig entschieden ist dieser Konflikt auch heute noch nicht. Heute ‚glauben‘ allerdings nur noch die wenigsten Physiker an die Kopenhagener Deutung. Das große Dilemma der heutigen Physik besteht darin, dass es keine Alternativen gibt, die wesentlich überzeugender sind. Die Zeit, als die Physik stets per Experiment entscheiden konnte, was wahr und was falsch ist, ist offensichtlich vorbei. Die in einem vorangehenden Beitrag erwähnte String-Theorie war bisher noch nicht in der Lage ein konkretes Experiment vorzuschlagen, dessen Ergebnis nur mit dieser Theorie zu erklären wäre.

Diese Zusammenhänge werden in einem im Internet verfügbaren Video sehr schön veranschaulicht. Eine sehr gute Einführung in die Geschichte der Quantenphysik ist das Buch von Manjit Kumar. Es wurde mir zu Weihnachten 2010 geschenkt und ich las es mit viel Vergnügen und Gewinn. Es ist für Laien wie mich sehr gut geeignet. In letzter Zeit haben sich auch einige sehr bekannte Physiker kritisch mit der Situation ihres Faches auseinandergesetzt. Diese Betrachtungen sowie einige der alternativen Theorien werde ich vielleicht später einmal kommentieren.

Freitag, 18. März 2011

Christoph Meinel über aktuelle Probleme des Internet

Christoph Meinel ist Informatik-Professor an der Universität Potsdam und leitet das Hasso-Plattner-Institut (HPI) für Softwaresystemtechnik. Er ist Autor von 10 Fachbüchern und 350 Fachpublikationen in den Bereichen Internet-Technologie, effiziente Algorithmen und Datenstrukturen und Komplexitätstheorie, sowie im Bereich Innovationsforschung. Er war Informatik-Professor an der Uni Trier und Leiter des dortigen Instituts für Telematik. Meinel hat an der Humboldt-Universität zu Berlin in Mathematik promoviert.


Bertal Dresen (BD): Sie sind Vorsitzender des IPv6-Rates in Deutschland und leiten außerdem eine Arbeitsgruppe zum Thema IPv6 im Rahmen des IT-Gipfels. Warum ist es so schwierig die Umstellung von IPv4 auf IPv6 zu bewerkstelligen? Das technische Problem scheint doch längst gelöst zu sein. Bis wann, glauben Sie, ist die Umstellung erfolgt?

Christoph Meinel (CM): In den vergangenen Jahrzehnten ist man bei der Vergabe von IPv4-Adressen ziemlich großzügig umgegangen. Erst in den letzten Jahren stieg das Bewusstsein, dass es wegen des begrenzten Vorrats bald keine IPv4-Adressen mehr gibt und dass es damit kein weiteres Wachstum im alten Internet geben kann. Wir im IPv6-Rat informieren Öffentlichkeit, Wirtschaft und Politik darüber und versuchen auch die Nachfrage nach dem neuen Protokoll zu stärken. Wenn der Vorrat an IPv4-Adressen voraussichtlich spätestens Ende 2011 aufgebraucht ist, werden Unternehmen die Nachfrage sicherlich in Gang bringen, denn sonst würden sie durch ihre Unfähigkeit, in IPv6 kommunizieren zu können, Geschäftspartner verlieren oder nicht mehr weiter wachsen. Es werden künftig immer mehr Service-Provider IPv6 anbieten und sich vor allem auch auf den Parallelbetrieb beider Protokolle einstellen. In einer Übergangsphase, die schätzungsweise 10 bis 20 Jahre dauern wird, können dank entsprechender Geräte bzw. Techniken beide Protokolle verarbeitet werden und dieselben Netzwerkverbindungen nutzen.

BD: Die Erweiterung des Adressierungsbereichs ist doch nur eines der Probleme, die das Internet zu lösen hat, seit es sich von einem Hochschulnetz zum Medium der allgemeinen wirtschaftlichen und privaten Kommunikation weiterentwickelte. Nicht nur unvorsichtige Nutzer werden bestohlen, alle werden mit Spam überschüttet und Kriminelle missbrauchen oder blockieren das Netz, so wie es ihnen gefällt. Sind wir Informatiker da hilflos, oder tut jemand etwas? Wenn ja, wann wird das der Nutzer spüren?

CM: IPv6 löst sicher nicht alle Probleme des Internets, ist aber zum Beispiel sicherer als IPv4, da es von Anfang an geeignete Sicherheitskonzepte, etwa das Protokoll IPSec, integriert. Wir Informatiker sind vor allem dazu aufgerufen, das Bewusstsein für Sicherheit bei den Internetnutzern zu erhöhen. Am HPI haben wir dazu diverse Ansätze entwickelt. Mit dem IT-Security-Lab etwa bieten wir Studenten und Interessierten die Möglichkeit, in einer abgekoppelten Umgebung Tools zu testen, mit denen Sicherheits-Systeme angegriffen werden.

BD: Manche Kollegen in Amerika glauben, dass es nicht reicht, hier und da Verbesserungen am Internet vorzunehmen. Sie plädieren für einen Neuentwurf von Grund auf (engl. Clean Slate). Halten Sie das für berechtigt oder meinen Sie, dass graduelle Verbesserungen ausreichen? Wenn ja, warum?

CM: Ein kompletter Neuentwurf hat natürlich den Vorteil, dass aktuelle Beschränkungen aufgrund bestehender Standards und Paradigmen, wie z.B. das Client-Server Paradigma oder die doppelte Nutzung der IP-Adresse sowohl als Identifikator als auch als Lokator umgangen werden können. Andererseits besteht gegenüber einer vollkommen neuen Netzarchitektur ein entsprechender Vorbehalt seitens der Benutzer, die sich auf eine heute etablierte Infrastruktur verlassen und nicht leicht von einem kompletten Neuanfang überzeugt werden können. Dies zeigt sich ja bereits an den Schwierigkeiten, trotz offenbarer Adressenknappheit das neue Internetprotokoll IPv6 auf breiter Basis einzusetzen, obwohl es den gängigen Architekturprinzipien des bestehenden TCP/IP-Referenzmodells folgt und lediglich eine evolutionäre Weiterentwicklung darstellt. Auch sind die meisten Vorschläge für ein Neudesign heute technisch noch nicht ausgereift genug, um tatsächlich eine gangbare Alternative darzustellen.

BD: Die Politik befasst sich hin und wieder auch mit dem Internet. Mal ist es die Kinderpornographie, mal die Netzneutralität die oben auf der Agenda stehen. Können wir Informatiker der Politik irgendwie helfen?

CM: Wir Wissenschaftler am HPI stehen der Politik auf Wunsch beratend zur Seite. Im von uns initiierten IPv6-Rat werden zum Beispiel Fragen zu Netzneutralität diskutiert. Wir sind außerdem Bündnispartner und wissenschaftliche Berater der Initiative White IT, deren Mitglieder sich gegen Kinderpornografie im Internet verbündet haben. Auch unsere Studenten beteiligen sich an der gesellschaftlichen Diskussion. Für eine Online-Diskussions-Plattform, den IT-Gipfelblog, befragen sie Entscheider aus Politik und Wirtschaft zu brisanten Themen. Über 600 registrierte Autoren und mehr als 1.100 eingestellte Text- und Kommentarbeiträge zeigen das Interesse der Öffentlichkeit am Dialog der Themen. Der Blog war von uns eingerichtet worden, nachdem Bundeskanzlerin Angela Merkel 2006 den ersten nationalen IT-Gipfel am Hasso-Plattner-Institut veranstaltet hatte. [Einen ausführlichen Bericht über die bisherigen Erfahrungen gab es im Februar-Heft des Informatik-Spektrum]

BD: Das Hasso-Plattner-Institut erhebt den Anspruch, Informatikerinnen und Informatiker so auszubilden, dass sie sehr schnell kompetente Beiträge zu den Problemen der Praxis leisten. Ist diese Zielsetzung realistisch und gibt es bereits Erfolge?

CM: Wir sind nach 11 Jahren Lehrbetrieb stolz auf 541 Bachelor-, 233 Master-Absolventen sowie 34 Promotionen und eine Habilitation. Gerade bauen wir ein Alumni-Netzwerk auf, um zu verfolgen, wohin sich unsere Absolventen entwickelt haben. Viele unserer Studenten werden schon vor Ende ihres Studiums von IT-Unternehmen kontaktiert und nach ihrem Abschluss direkt angestellt. Einige entscheiden sich aber auch für eine Unternehmensgründung. Aufgrund der praxisnahen und ingenieurwissenschaftlich orientierten Uni-Ausbildung, die wir am Hasso-Plattner-Institut vermitteln, haben unsere Absolventen durchweg sehr gute Chancen auf dem Arbeitsmarkt.

BD: Vielen Dank für das Interview, auch dafür, dass Sie in diesem Blog den Anfang machten.

Mittwoch, 16. März 2011

Von Euklid zu Einstein: Geometrie in Raum und Zeit

Veranlasst durch ein Buch über den Mathematiker Kaluza, das ich vor kurzem auf Empfehlung eines Freundes las, habe ich einige Gedanken über das Weltbild der Geometrie zusammengefasst und aufgeschrieben. Meine Enkelkinder (und andere interessierte Leser) mögen sich daran erfreuen. Schon als kleines Kind haben mich geometrische Formen fasziniert. Die Analytische Geometrie, wie sie von René Descartes (1596-1650) begründet worden war, war mein Lieblingsthema im Gymnasium. Es beeindruckte mich, dass man alle Kurven und Flächen mit einer Formel beschreiben kann. Ich berechnete und zeichnete Kegelschnitte (Parabeln, Ellipsen und Hyperbeln) und geometrische Körper, auch über das hinaus, was uns als Hausaufgaben gegeben wurde.

In meinem Geodäsie-Studium war es dann die sphärische Geometrie, so wie sie Altmeister Carl Friedrich Gauß (1777-1855) gelehrt hatte, die uns intensiv beschäftigte. Bei unseren Feldübungen bestimmten wir zweidimensionale Koordinaten durch Winkel- und Streckenmessungen, um sie anschließend aus einem lokalen Bezugssystem in ein übergeordnetes Bezugssystem (meist Gauß-Krüger-Koordinaten) umzurechnen. Die dritte Koordinate, die Höhe, spielte nur eine Nebenrolle. Dass die Erde kein geometrisch regelmäßiger Körper ist, d.h. dass die durch Normalnull bestimmte Fläche keine Kugeloberfläche ist, lernte ich unter anderem aus den Schweremessungen, die ich während meines Studiums analysierte. Die Abplattung der Erde an den Polen beträgt bekanntlich etwa 21 km; die übrigen Dellen liegen im Bereich mehrerer 100 m. Später wurde dank Satelliten alles sehr viel genauer vermessen, so dass Leute, die heute per GPS navigieren, nicht zu sehr in die Irre geleitet werden.

Nach diesen Bemerkungen über meinem persönlichen Einstieg noch ein paar Worte zur Geschichte der Geometrie. Sie reflektiert, wie der Mensch sich bemühte, seine irdische Umwelt wahrzunehmen und sich in ihr zu orientieren. Die Astronomen dagegen schauten auf den Himmel und versuchten zu verstehen, wo die Erde als Ganzes einzuordnen ist. Die Grundlagen der abendländischen Geometrie fasste einst Euklid (etwa 360 – etwa 280 v. Chr.) in Alexandrien zusammen. Seine Bücher kamen über die Araber und Spanien zu uns. Über sein Parallelenaxiom stritten später die Mathematiker. Sie bezweifelten, dass Euklid es benötigt hätte. Erst Ende des 19. Jahrhunderts merkte man, dass man ohne das Parallelen-Axiom eine andere Geometrie erhält. Man nennt sie heute nicht-euklidische Geometrie.

Neben C.F. Gauß kam hier sein Schüler Bernhard Riemann (1826-1866) ins Spiel. In der nach ihm benannten Riemannschen Geometrie kennt man einen Krümmungstensor. Das ist eine Formel, die ausdrückt, wie die Koordinaten eines ‚flachen‘ Raumes verformt werden, abhängig von der Art der Verkrümmung. Überblickbar ist die Sache gerade noch bei der Mannigfaltigkeit 2, also einer ‚gekrümmten‘ Fläche, wie sie Geodäten am Beispiel der einer Kugeloberfläche nachempfundenen Erdoberfläche betrachten. An dem Problem, diese gekrümmte Fläche auf flaches Papier abzubilden, versuchten sich Generationen von Kartografen. Als Mathematiker konnte Riemann der Versuchung nicht widerstehen, und errichtete ein Gedankengebäude, das auch gekrümmte Räume beliebiger Dimensionalität mit einschloss. Seither spricht man von Rn als dem Riemannschen Raum. Ich konnte ihn mir nie vorstellen.

Im Jahre 1905 hatte Albert Einstein (1879-1955) in seiner Speziellen Relativitäts­theorie einerseits postuliert, dass alle physikalischen Gesetze ihre Gültigkeit behalten, wenn man das Koordinatensystem bewegt. Andererseits kam er zu dem Schluss, dass man den Raum nicht als etwas a priori gegebenes ansehen darf. Vor allem sei er nicht starr. Da die Lichtgeschwindigkeit c nachgewiesener­maßen eine Konstante ist, muss sich bei einer Bewegung mit der Geschwindigkeit v diejenige Dimension des Raumes verändern, in welcher die Bewegung erfolgt. Als Längen­kontraktion (auch Lorentzkontraktion genannt) gab Einstein die Formel
∆L = 1/√(1-v2/c2)

an. In ähnlicher Weise wird die Zeit in die Länge gezogen, um zu verhindern, dass die Addition von Lichtgeschwindigkeiten den Wert c überschreitet. Da sich bei der Satellitennavigation relativistische Effekte sonst akkumulieren würden, müssen sie laufend berücksichtigt werden. Die Tübinger Physiker um Hanns Ruder haben in den letzten Jahren anhand von computer-generierten Filmen veranschaulicht, wie z. B. die Tübinger Altstadt oder das Brandenburger Tor in Berlin aussehen würden, wenn man sich nahezu mit Lichtgeschwindigkeit durch sie hindurch bewegen würde. Da sich die Erde mit einem Zehntausendstel der Lichtgeschwindigkeit um die Sonne bewegt, sind auch hier die Effekte signifikant.


Erde in Umlaufbahn um Sonne: v = 30 km/s  →  ∆L = ~ 2 m
(nach H. Ruder)

Als im Jahre 1907 Hermann Minkowski (1864-1909) vorschlug, Zeit als vierte Dimension zu betrachten, hielten viele das zunächst für eine reine Frage der Notation. Selbst Einstein wusste  zunächst nichts damit anzufangen. In der später von ihm entwickelten Allgemeinen Relativitätstheorie nahm er dann doch Raum und Zeit als ein Kontinuum an, d.h. man konnte von einem ins andere übergehen. Einstein nimmt jetzt einen gekrümmten Raum an, in dem sich die Krümmung in Abhängigkeit von der Massenverteilung dynamisch verändert. Damit war es Einstein gelungen, das Phänomen der Schwerkraft geometrisch zu erklären. Was ihm nicht gelang – und wofür er den Rest seines Lebens keine Lösung fand – war der Versuch, die Gravitation in Beziehung zu setzen zu den andern drei Grundkräften der Physik, vor allem zu der Elektromagnetischen Kraft. Auf die schwache und starke Kernkraft soll hier nicht eingegangen werden. Nach Einsteins Auffassung ist das Universum unendlich aber begrenzt, ähnlich wie die Oberfläche einer Kugel.

Ein an Physik sehr interessierter Mathematiker namens Theodor Kaluza (1885- 1954) versuchte Einstein eine Brücke zu bauen. Er postulierte eine fünfte Dimension. Vier Dimensionen stellen das Raum-Zeit-Kontinuum dar. In einer fünften Dimension sollten die Maxwellschen Gesetze des Elektromagnetismus gelten. Die fünfte Dimension sei kompaktifiziert − hieß es –, das bedeutet, ihre Ausdehnung liegt in der Größenordnung der Planckschen Länge (~10-35 m). Einstein erhoffte sich, auf diesem Weg zu einer vereinheitlichten Theorie der Naturkräfte zu kommen – und ließ nicht locker. Andere Physiker sahen in Einsteins Starrköpfigkeit alsbald Zeichen von Senilität. Auch Wolfgang Pauli (1900-1958) spottete, Einstein solle nicht versuchen zu vereinen, was Gott getrennt hätte. 

Physiker nach Einstein griffen das Problem wieder auf und suchten weiter nach der einheitlichen Weltformel. Eine Gruppe von Theorien, die beanspruchen eine Antwort zu geben, sind die String-Theorien. Hier sind die kleinsten Teilchen nicht punkt­förmig, sondern haben die Form kleiner Röhrchen oder komplexerer Gebilde in elf Dimensionen. An dieser Stelle wird die Physik sehr unanschaulich. Ob die String-Theoretiker wirklich viel weiter gelangen werden als Einstein, wird von manchen Leuten bezweifelt.

Montag, 14. März 2011

Informatik und arabische Revolutionen

Neben Erdbeben gibt es auch politische Beben. Ein solches erleben wir gerade in der arabischen Welt. Dass es dabei einen Bezug zur Informatik gibt, mag einigen Leuten entgangen sein. Ich erinnere hier daran und lasse mich dabei zu einigen weiterführenden Gedanken verleiteten. Wenn ich dabei etwas mutige Analogien verwende, so ist dies als pädagogisches Hilfsmittel zu verstehen.

Mit der Selbstverbrennung des 26-jährigen Mohamed Bouazizi am 17. Dezember 2010 in Sidi Bouzid begann die tunesische Revolution. Bouazizi, der Informatik studiert hatte, war arbeitslos und betätigte sich als Obstverkäufer, um seine Familie zu ernähren. Er soll sich selbst vor dem Gouverneurs­gebäude in Brand gesetzt haben, um gegen die Konfiszierung seines Obst- und Gemüsestandes durch die Polizei zu protestieren. Da er sich die Lizenz als Obstverkäufer nicht leisten konnte, arbeitete er schwarz. Laut Spiegel Online besteht die Familie darauf, dass es ein Unfall war. Er hätte sich zwar mit Benzin übergossen, wollte sich jedoch nicht umbringen. Wie auch immer.

Dieser Fall bringt in Erinnerung, dass allein mit der Förderung von Bildung und Ausbildung weder bei uns, noch in Entwicklungsländern, etwas entscheidend Positives erreicht ist. Es werden im ungünstigsten Falle nur Hoffnungen auf ein besseres Leben geweckt, die das Land (noch) nicht erfüllen kann. Wer in Bildung investiert, kommt nicht umhin dafür zu sorgen, dass es später auch adäquate Verdienstmöglichkeiten gibt. Das Wort ‚Arbeitsplatz‘ ist – wie fast immer in diesen Diskussionen –  nicht der richtige Begriff. Bei Arbeitsplätzen denkt man primär an abhängig Beschäftigte. Solche Stellen kann es erst geben, nachdem sie entweder vom öffentlichen Dienst oder von Unternehmern geschaffen wurden. Unternehmer tun dies nur, wenn sie ihr Geschäft über das hinaus expandieren möchten, was sie in eigener Person oder mit Unterstützung durch Familienangehörige bewerkstelligen können. Der öffentliche Dienst wiederum lebt von der privaten Wirtschaft, es sei denn der Staat ist der einzige Unternehmer im Land. Es muss daher Selbständige geben, bevor es Angestellte geben kann. 

Es genügt daher nicht, die Eliten von Morgen in den Methoden und Techniken von heute und deren theoretischen Grundlagen – sofern es sie gibt – auszubilden. Sie sollten vielmehr lernen, neue geschäftliche Chancen zu erkennen und zielgerichtet zu ergreifen. ‚Entrepreneurship‘ ist wichtiger als ‚employability‘, um es neudeutsch zu sagen.

Nach Tunesien kam der Aufstand in Ägypten, der zu Mubaraks Rücktritt am 11.2.2011 führte. Beide Aufstände wurden von Journalisten als Facebook-Revolutionen bezeichnet. Das ist natürlich übertrieben. Die Informatik löst Revolutionen nicht aus; sie kann sie nur beschleunigen. Auch hier spielen junge, gut ausgebildete Menschen, die sich um ihre Zukunft betrogen fühlen, eine dominierende Rolle. Wie ich mir das Netz­geschehen vorstelle, habe ich in einem früheren Beitrag anhand der Internet-Aktivitäten im Zusammenhang mit Stuttgart 21 beschrieben. Natürlich hat es einige Beobachter gewundert, dass man in Afrika so viele Internet-Nutzer antrifft.

Wir sollten nicht nur über die Auslöser und den Verlauf der Umwälzungen in der arabischen Welt reden, sondern auch über die Konsequenzen nachdenken. Sie sind zwar noch nicht erkennbar, aber unausweichlich.

Ich bin mir ziemlich sicher, dass jetzt eine Völkerwanderung stattfinden wird, wie sie Mitteleuropa seit dem frühen Mittelalter nicht mehr erlebt hat. Sie dauerte damals einige Jahrhunderte, jetzt geht es schneller. Die Situation, in der sich das Römische Imperium im dritten und vierten Jahrhundert nach Christus befand, war teilweise vergleichbar mit derjenigen, in der sich Süd- und Mitteleuropa heute befinden. Wir haben einen wesentlich höheren Lebensstandard als die Völker um uns herum, verfügen über ein Rechtssystem, in dem man sich als Einzelperson, Gesellschaft und Wirtschaft entfalten kann, und besitzen überstrapazierte militärische Streitkräfte – ähnlich wie die Römer. Damals verfügten die im Norden Europas lebenden Stammesgemeinschaften über höhere Geburtenraten, größeren wirtschaftlichen Hunger und mehr Wagemut – so wie heute die Völker Afrikas und der arabischen Welt. Wer gewann, wissen wir. 

Wie sehr das römische Heer damals überfordert war, zeigt das Felsrelief in Bischapur im heutigen Iran, das an die Gefangennahme von Kaiser Valerian im Jahre 260 nach Christus erinnert. Zum Hindukusch ist es von dort nicht mehr allzu weit.


 Ausschnitt aus Felsrelief von Bischapur

Interessant ist es, sich die Methoden anzusehen, die die Germanen benutzten, um im römischen Reich Fuß zu fassen. In den ersten Jahrhunderten kamen nur einzelne Männer (und ganz wenige Frauen) ohne ihre Familien und verdingten sich als Landarbeiter, Hauspersonal oder Söldner. Da es Universitäten in unserem Sinne nicht gab, erhielten Kinder aus vornehmen Familien andere Formen von Stipendien. So wurde Arminius, der Sohn eines Cheruskerfürsten, von einer römischen Familie adoptiert und in Rom im Verwaltungs- und Kriegswesen ausgebildet. Nach und nach übernahmen die Einwanderer Verwalterfunktionen für Latifundien oder wurden Offiziere, die einzelne Truppenteile leiteten. Später kamen Franken und Goten in ganzen Familien- und Sippenverbänden. Als Foederaten übernahmen sie von den Römern die Verwaltung ganzer Provinzen oder die militärische Sicherung größerer Gebiete. Sie absorbierten das römische Rechtssystem und die römische Kultur und bauten Klöster und Kirchen für eine neue Religion. Der Franke Karl der Große wiederbelebte im Jahre 800 schließlich das römische Imperium. 

Dass Immigranten damals so leicht Arbeitsplätze beim Militär finden konnten, lag daran, dass es keine Wehrpflicht gab. Wir sind gerade dabei, diese zweifelhafte Errungenschaft der Französischen Revolution wieder abzuschütteln. Aber selbst die Grande Nation ließ in der Vergangenheit viele ihrer Schlachten von Fremdenlegionären schlagen. Es wird Zeit, dass wir dies auch tun.

Verblüffend für viele Beobachter ist, dass in den ganzen Umwälzungen der letzten Monate das Terrornetzwerk Al Qaida so gut wie verstummt ist. Es scheint sich herauszustellen, dass es weder eine politische noch eine soziale Massenbewegung repräsentiert. Selbst eine so außergewöhnliche Aktion wie die am 11. September 2001 in New York und Washington, war nicht das Werk von im Volke verwurzelten revolutionären Führern. Ähnlich wie bei der RAF in Deutschland rekrutierten die Täter sich aus selbsternannten Eliten. Es waren alles Söhne reicher Familien aus Ägypten und Saudi-Arabien, die in der deutschen Diaspora von muslimischen Hasspredigern radikalisiert wurden. 

Wenn ihnen jetzt das eigene Volk zeigt, wie gut man auf sie verzichten kann, besteht die Chance, dass diese Bewegung austrocknet. Schön wäre es. Vielleicht bekommt dann Al Qaida nach 30 Jahren einen Filmnachruf, so wie wir dies gerade der Baader-Meinhof-Bande gewähren. Für die Mitwelt wäre es besser, man könnte den Wunsch nach Ruhm auf diese Art befriedigen, statt dass man sich mit Donnerschlägen Aufmerksamkeit verschaffen muss.