Dienstag, 11. Oktober 2011

Eike Jessen über ein Informatikerleben in Industrie und Hochschule

Eike Jessen war von 1964 bis 1972 Leiter der Großrechnerentwicklung von AEG/Telefunken in Konstanz und war unter anderem für die Entwicklung und den Bau des Rechners TR-440 verantwortlich. Jessen verließ Telefunken, um sich an einer Hochschule das inzwischen entstehende Informtik-Wissen anzueignen. Er war zunächst als Informatik-Professor in Hamburg tätig, mit einer einjährigen Beurlaubung an die Universität der Bundeswehr München, ehe er 1983 an die TU München berufen wurde. Seit 2003 ist er emeritiert. Neben seiner Lehrtätigkeit engagierte er sich besonders für den Aufbau des Deutschen Forschungsnetzes (DFN). Als langjähriger Vorsitzender des DFN-Vereins initiierte er 1988 das deutsche Wissenschaftsnetz. Jessen wurde in Elektrotechnik an der TU Berlin promoviert. Er wurde 2004 zum GI-Fellow ernannt. 



Bertal Dresen (BD): Wir beide lernten uns kennen, als Sie noch bei Telefunken in Konstanz arbeiteten. Ich selbst war damals auf der Seite Ihrer Konkurrenz tätig, nämlich bei IBM in Böblingen. Mitte der 1970er Jahre waren wir beide gleichzeitig im Präsidium der GI. Seit dieser Zeit habe ich den Eindruck, dass Sie eine andere Herangehensweise an viele Dinge haben, als diejenigen Kollegen, die ihr ganzes Berufsleben an der Hochschule verbrachten. Sehen Sie das auch so? Wenn ja, wie würden Sie diese Unterschiede charakterisieren? Sind Sie so wie es Ernst Denert in diesem Blog sagte, auch der Meinung, dass man in der Praxis Erfahrungen sammeln kann, die einem nützlich sind, auch wenn man in eine Hochschullaufbahn möchte? Wenn ja, welche dieser Erfahrungen halten Sie für besonders wichtig?

Eike Jessen (EJ): In den klassischen Ingenieurwissenschaften ist es die Regel, dass die Lehrstuhlinhaber vor ihrer Berufung Erfahrungen in der Berufspraxis außerhalb der Universität gesammelt haben. Insbesondere sollte damit erreicht werden zu lernen, wie man eine verantwortliche Rolle in einem großen Verbund spielen kann. Die Informatik in Deutschland konnte bei ihrer Gründung nicht auf ein Potenzial von praxisbewährten Wissenschaftlern zurückblicken. Das schmälert in keiner Weise die großen Leistungen, die in den 70ern beim Aufbau der Universitätsinformatik vollbracht wurden.

Ich glaube, dass neben dem Gefühl der Verantwortlichkeit für die Umgebung, in der ich arbeite, mich vor allem der Eifer gegen das Vage zu kämpfen und klare Ziele zu setzen, bestimmt hat. In dem üblichen Wissenschaftsbetrieb fühlte ich mich immer etwas fremd.

BD: Die von ihnen geleiteten Projekte bei Telefunken in Konstanz waren de facto der letzte Versuch, mit eigenen nationalen Entwicklungen im Großrechner-Bereich Fuß zu fassen, wenn wir einmal von Suprenum absehen. Darf ich Sie bitten, etwas über diese Erfahrungen zu reflektieren, technische und nicht-technische? War der anvisierte Markt zu klein, um eigene Entwicklungen zu rechtfertigen? Waren die für die Entwicklung erforderlichen Kapazitäten und Kompetenzen zu beschränkt? Wäre der Markt, in dem Heinz Nixdorf Erfolg hatte, für Sie eine Alternative oder Ergänzung gewesen? Warum hat sich im Bereich der Basis-Software (Betriebssysteme, Datenbanken, Grafiksysteme) kein deutscher Hersteller profiliert?

EJ: Mit dem TR 440 gingen wir in Konstanz in ein Projekt, das unter den Anforderungen des Marktes während der Entwicklung anwuchs, und auf technischen Grundlagen (z.B. CAD, Großrechner aus integrierten Schaltungen) basierte, die zwar im Prinzip vorhanden waren, aber eher als internes Wissen und Erfahrung einiger großer Hersteller, aber nicht in einem offenen Markt oder als Gemeingut der Fachleute. Eine Informatikausbildung gab es nicht. 

Trotz nachdrücklicher politischer Unterstützung (50% der Entwicklungskosten als DV-Förderung des Bundes, Unterstützung von TR 440-Beschaffungen in der Wissenschaft) und Verkauf von 44 Anlagen war das Vorhaben nicht profitabel. Es war immer klar, dass eine Fortsetzung der Rechnerentwicklung in Konstanz nur mit einem Partner möglich sein würde. Trotz vieler Gespräche wurde ein solcher nicht gefunden. Auch Siemens, gebunden durch die Unidata-Kooperation und die Anlehnung an die /370-Architektur, war dafür nicht geeignet.

Für den Markt, in dem Heinz Nixdorf so erfolgreich war, hatten wir weder das richtige Produkt noch Branchenwissen oder Kundenbeziehungen. Das Joint Venture Telefunken Computing zwischen AEG/Telefunken und Nixdorf scheiterte daran. 

Im Bereich Software waren die Erfolge allerdings größer als sie heute vielleicht aussehen. Da waren das Siemens BS 1000 und BS 2000. Das Telefunken BS 3 [für den Rechner TR440] war seiner Zeit ein gutes Stück voraus, die Compiler vorzüglich. Schließlich gab es Encarnaçaos Graphisches Kernsystem (GKS).

BD: An den Hochschulen, an denen Sie tätig waren, haben Sie in Lehre und Forschung  die Analyse und Optimierung von Rechensystemen hinsichtlich ihrer Leistungsfähigkeit und Zuverlässigkeit in den Vordergrund gestellt. Wie beurteilen Sie heute die Relevanz dieser Arbeiten? Nach der Meinung vieler Kollegen haben unsere Rechner schneller ihr Preis-Leistungsverhältnis verbessert, als wir es ausnutzen konnten. Wozu sind dann noch Leistungsanalysen notwendig? Außerdem haben Sie eine Keimzelle der KI-Forschung, das Automatische Beweisen an der TU München (mit Wolfgang Bibel, Ulrich Furbach u.a.) aufgebaut. Haben sich auf diesem Gebiet Ihre Erwartungen erfüllt?

EJ: Ich verließ AEG/Telefunken mit dem Gefühl, dass wir die Abläufe für unsere Maschinen im Kleinen bestens kannten (wir hatten sie ja entworfen), dass aber ihr Verhalten im Großen, bei einer gegebenen Konfiguration und Programmlast eher wie in einer Naturwissenschaft durch Beobachtung und Messung erkundet wurde, was doch eigentlich verbürgtes Resultat einer erfolgreichen Entwicklung sein müsste. Sie haben recht, der Druck, die Leistungseigenschaften durchschauen und verantworten zu können, wurde durch die andauernde Steigerung der Halbleiterleistung gemindert, die es attraktiver machte, auf die nächste Technologiegeneration aufzuspringen als die Systementwürfe zu optimieren. Das gilt aber kaum für komplexe Systeme, mit der Durchdringung von Leistungs-, Zuverlässigkeits- und Sicherheitsproblemen.

Im Automatischen Beweisen kommt der Verdienst, diese Arbeitsrichtung in Deutschland so erfolgreich (in zahlreichen internationalen Wettbewerben demonstriert) vorangetrieben zu haben, Wolfgang Bibel und seinen Mitarbeitern zu. Daran ändert auch nichts, dass andere Verfahren der Wissensdarstellung und Deduktion sich ebenfalls verbreitet haben.

BD: Meine Kollegen und ich verbinden mit Ihrem Namen die Gründung und den Aufbau des Deutschen Forschungsnetzes (DFN) sowie den Aufbau der verschiedenen Generationen des Wissenschaftsnetzes einschließlich des auf Glasfasern basierten Höchstgeschwindigkeitsnetzes (X-WiN). Wie sehr haben diese Arbeiten die schnelle Akzeptanz des Internets an Hochschulen und anderswo vorbereitet? Gab es nicht auch Sackgassen, die man – nach dem, was man heute weiß – hätte vermeiden können? Worin besteht der nachhaltige und bleibende Wert dieser außergewöhnlichen Anstrengungen für die deutsche Wissenschaft und Wirtschaft?

EJ: Das DFN konnte ab Mitte der 90er Jahre an den Hochschulen und Forschungseinrichtungen Bandbreiten der Übertragung bieten, von denen die übrigen Kommunikationsanbieter weit entfernt waren. Ab 2000 galt das auch für die Links nach USA. Das ermöglichte an den Hochschulen eine Generation in Netznutzung auszubilden, die anderswo unverfügbar oder unbezahlbar war. DFN ist auch beispielgebend in der Markt- und Ordnungspolitik gewesen (der X.25-Vertrag von 1989 war der erste privatrechtliche Netzdienstvertrag, nicht länger eine hoheitliche Aufgabe). DFN ist auch das Paradebeispiel, was die Wissenschaft durch Bündelung und Formierung ihrer Bedarfe erreichen kann. Aus einem anfänglichen Rückstand von etwa 4-5 Jahren gegenüber den USA entstand bis 2001 im DFN das größte und leistungsfähigste Wissenschaftsnetz der Welt.

In der DFN-Entwicklung gab es 1989/1990 eine Phase, in der DFN die herstellerunabhängige Kommunikation über die entstehenden Normen der ISO abwickeln wollte (übrigens ermutigt durch NSF und Pentagon!), während in der Wissenschaft die Internetwelt [basierend auf den TCP/IP-Protokollen] schnell heranwuchs. Bleibender Wert des DFN ist ein erstklassiges Netz, international bestens eingebettet, und eine schlagkräftige Selbstverwaltungsorganisation der Wissenschaft. DFN hat gerade in den letzten Jahren gezeigt, dass es mit dem Trust Management AAI für die Gemeinschaft Vorteile herausholen kann, von denen der Markt noch entfernt ist.

BD: Ich erinnere mich, dass Sie während Ihrer Zeit an der TU München intensive  Kontakte zu Universitäten in den baltischen Ländern pflegten. Welche Form und welchen Inhalt hatten diese Kooperationsprojekte? Was ist daraus geworden? Was empfehlen Sie jüngeren Kollegen, was sie in puncto Auslandskooperationen tun sollten? Was kann man daraus lernen?

EJ: Die Frage ist sehr liebenswürdig. Könnte ich noch einmal anfangen, so würde ich viel intensiver international arbeiten. Ich habe die Universität Vilnius bei der Entwicklung ihrer Informatik unterstützt und in einem von der KTH Stockholm geleiteten Projekt die baltischen Länder beim Aufbau einer (Grid-) Infrastruktur beraten.

BD: Sie können auf eine sehr lange und aktive Mitgliedschaft in der GI zurückblicken. Nicht erst als GI Fellow haben Sie mehrmals die Initiative ergriffen, um sich mit aktuell relevanten Problemen zu befassen. Welche Probleme waren dies? Was ist aus den Initiativen geworden? Wie sehen Sie generell die GI? Wird sie den Erwartungen an eine Fachgesellschaft gerecht, die berufsständige Fragen nicht ignorieren kann?

EJ: Trotz Globalisierung der Wissenschaft ist eine deutschsprachige Fachgesellschaft für Informatik unverzichtbar. Die GI muss Rahmen für die Wissenschaft Informatik und für den fachlichen Austausch ihrer Mitglieder bereitstellen, Gutachten zum Stand der Informatik erarbeiten, ihre Mitglieder jenseits deren Spezialisierung im weiten Gebiet der Informatik informieren und fit halten, der Öffentlichkeit und der Wissenschaftspolitik die Bedeutung der Informatik aufzeigen. 

Wie Sie sich vielleicht erinnern, scheiterte die erste Initiative (von Denert, Endres, Jessen, Oberquelle), die das Ziel hatte in der GI Fachgruppen und Regionalgruppen aufzubauen, zunächst am Misstrauen des Informatik-Establishments gegenüber Bottom-Up-Aktivitäten. Die neuen Strukturen wurden schließlich von der Mitgliederversammlung 1974 in Berlin in die Satzung der GI aufgenommen und versuchsweise eingeführt. Sie haben sich offensichtlich bewährt und geben auch heute noch der GI einen breiten Unterbau.

Ich habe mich außerdem für die GI als Fortbildungsmedium eingesetzt, und lief damit offene Türen ein. Später führte dies zur Gründung der Deutschen Informatik-Akademie (DIA), die auch heute noch wertvolle Dienste leistet. Schwieriger war es, die Idee einer Mitgliederzeitschrift durchzusetzen als Angebot für diejenigen Mitglieder, die keine Zeit haben, wochentags an Fachveranstaltungen teilzunehmen. Heute ist das Informatik-Spektrum das wichtigste fachliche Bindeglied der deutsch-sprachigen Informatiker-Gemeinde. Gerne erinnere ich mich an diese frühe Zeit unserer Zusammenarbeit.

BD: Herr Jessen, vielen Dank für das ausführliche Interview
mit einigen interessanten historischen Reminiszenzen.

Nachtrag am 20.3.3015: 

Wie mir die Familie heute mitteilte, verstarb Eike Jessen am 18.3.2015 nach langer Krankheit in seinem Haus in Tutzing.

Keine Kommentare:

Kommentar veröffentlichen

Hinweis: Nur ein Mitglied dieses Blogs kann Kommentare posten.