Unbezahlbarkeit der Betriebskosten der Computer droht.

Material-Sammlung

Der Hollerith-Tabulator 1884, der erste serienreife elektrische Computer: nicht von-Neumann, sondern eine Datenstrom-Maschine: kaum 3 Kühlschränke groß: erstaunlich schlank. Man bedenke: es gab noch keine Elektronenröhren und keine Transistoren! (Foto: vermutlich IBM)

Diese Tabulator-Maschine wurde damals von Hand programmiert  über ein Steckbrett (heute heißt das Look-Up-Table (LUT) und ...zig-Tausende davon finden sich auf einem FPGA-Mikrochip - naürlich nicht mehr von Hand programmiert, sondern elektronisch). Foto: vermutlich IBM

er Strategie-Schwenk von der Datenstrom-Maschine zum von-Neumann-Computer: eine Befehlsstrom-Maschine. anbei ein Bild vom ENIAC, um 1944, also 60 Jahre nach dem Hollerith Tabulator.
Was für ein Hangar-füllendes Monstrum, verglichen mit dem zierlichen Tabulator
von 1884 und das nur um einige ballistische Tabellen auszurechnen für die US  Army:.
40 Gestelle, fast  3 Meter hoch, und 18.000 Elektronenröhren.


Das Bild stammt von  http://gconnect.in/gc/lifestyle/get-ahead/evolution-of-computer.html
Ich weiß nicht, wer die Rechte an  diesem Bild hat die US Army. Eine ENIAC-Bildersammlung findet sich unter
http://www.google.com/images?q=%22ENIAC%22&hl=en&num=100&lr=&ft=i&cr=&safe=images&um=1&ie=UTF-8&source=og&sa=N&tab=wi&biw=1150&bih=606 Dieser Strategie-Wechsel von Datenstrom auf Befehlsstrom: wieviele Billionen oder Trillionen Schaden hat dieser Wechsel inzwischen gekostet?

Die von-Neumann-Maschine ist extrem ineffizient und wurde deshalb von vielen Berühmtheiten krtisiert: "das von Neumann Syndrom" [Prof. C. V. Ramamoorthy, University of California, Berkeley], "Software is a gas and fills any available storage space" [genannt "Nathan's Law" nach Nathan Myhrvold, ehem. Microsoft CTO]. Folgendes Bild, das ich in Hong Kong selbst aufgenommen habe, erinnert mich an das von Neumann Syndrom: die meiste energie wird zum Erzeugen von Schaum verbraucht.



Typisch für die meisten gtoßen Software-Projekte (also von Neumann)  ist eine massive Überschreitung
der Zeitplanung und des Kostenansatze. Ein Prozentsatz wird sogar gänzlich abgeblasen.
[N.N.: 1995: The Standish Report]    -    Software Crisis: über 40 Jahre Dauerkrise !

Eine alternative Technologie gibt es seit 1984 (100 Jahre nach dem ersten Tabulator): die Datenstrom-getriebenen FPGAs (Field-Programmable Gate Array), mit ca. 9 Mrd.US-$ noch eine Nischen-Technologie. Folgendes FPGA-bestücktes PCI-Steckbrett für Computer-Tomographie-Anwendungen ist um den Faktor 3000 schneller als ein moderner von Neumann-Mikroprozessor (Foto: Siemens AG)



Der Weltrekord an Beschleunigung und Energieersparnis liegt derzeit bei (siehe folgendes Bild, Foto: Hartenstein) Beachte: Energiekosten dividiert durch 3439 !

Für die verschiedensten Anwendungen wurden Beschleunigungsfaktoren veröffentlicht über die Umprogrammierung von (von-Neumann-)"Software" auf "Configware" für FPGAs. Siehe Folgendes Bild von Reiner Hartenstein):

Der Energiespar-Faktor beträgt (nicht in diesem Bild) ungefähr 10% des Beschleunigungs-Faktors.

Prof. Hartenstein's Datenstrom-basiertes MoM Xputer Projekt erreichte bereits In den 80er-Jahren Beschleunigungsfaktoren bis zu 15000, und zwar ohne FPGAs (die damals noch zu klein waren). Als Ersatz diente ein von Hartensteins Lehrstuhl in Kaiserslautern entworfenes Mikrochip, das in Rahmen des von Prof. Hartenstein gegründeten E.I.S.-Projekt fabriziert wurde: http://de.wikipedia.org/wiki/E.I.S.-Projekt Siehe folgendes Foto von Reiner Hartenstein. MoM steht für Map-oriented Machine. Xputer heißt: wir suchten für ...puter eine andere Vorsilbe als Gegenstück zu Com.

Vielleicht interessiert Sie ein Aufsatz vom PC magazin DOS von 1997: http://hartenstein.de/Xputer-Weltwunder-97.pdf

Zwang zur Parallelität. Durch industriellen Strategie-Wechsel (um 2004) von  immer schnellerem Einzel-Mikroprozessor zu Mehreren langsameren Prozessoren auf dem gleichen Chip (Multicore-Chips) ist sowie eine Umprogrammierung notwendig, nämlich auf mehrere parallel laufende von-Neumann-Prozessoren. Die hierzu qualifizierte Programmierer-Population ist kaum vorhanden: Die Informatik muß neu erfunden werden. Hier handelt es sich um mehrere parallel laufende Befehlsströme. Auch bei Umprogrammierung auf FPGAs wird Parallelität nötig, aber anderer Art: nämlich parallele Datenströme.

 Auch hierfür ist eine qualifizierte Programmierer-Population kaum vorhanden, sodaß die Hardware-Leute ihre Architekturen selber programmieren müssen. Die Neuerfindung der informatik erordert also die Lehre für die Programmierung heterogener Systeme, auf denen beide Arten der Parallelität miteinander verzahnt sind. Dies ist eine Herausforderung. Zusammen mit Universitäten in Brasilien und dem Karlsruhe Institute of Technology arbeitet Prof. Hartenstein an einem hierzu geeigneten T'extbuch für die Lehre.

Folgendes Bild (Prof. Hartenstein) veranschaulicht die Unterschiede zwischen den beiden Arten von Parallelität: links: parallele Datenströme (FPGA), rechts parallel arbeitende Befehlsströme (parallel arbeitend mehrere von-Neumann-Prozessoren).

Näheres zur künftigen Unbezahlbarkeit der Computer-Betriebskosten siehe in http://www.hartenstein.de/BNN-Hartenstein-2010.jpg

Ein Aufsatz in englischer Sprache: THE GRAND CHALLENGE TO REINVENT COMPUTING - A new World Model of Computing http://hartenstein.de/Hartenstein-SEMISH-2010.pdf

Fotos von Reiner Hartenstein: