Wiederkonfigurierbare Computerwissenschaft

Wiederkonfigurierbare Computerwissenschaft ist eine Computerarchitektur, die etwas von der Flexibilität der Software mit der hohen Leistung der Hardware durch die Verarbeitung mit der sehr flexiblen hohen Geschwindigkeit von Rechenstoffen wie feldprogrammierbare Tor-Reihe (FPGAs) verbindet. Der Hauptunterschied, wenn im Vergleich zum Verwenden gewöhnlicher Mikroprozessoren die Fähigkeit ist, wesentliche Änderungen mit dem datapath selbst zusätzlich zum Kontrollfluss vorzunehmen. Andererseits ist der Hauptunterschied mit der kundenspezifischen Hardware, d. h. anwendungsspezifische einheitliche Stromkreise (ASICs) die Möglichkeit, die Hardware während der Durchlaufzeit durch "das Laden" eines neuen Stromkreises auf dem wiederkonfigurierbaren Stoff anzupassen.

Geschichte und Eigenschaften

Das Konzept der wiederkonfigurierbaren Computerwissenschaft hat seit den 1960er Jahren bestanden, als das merkliche Papier von Gerald Estrin das Konzept eines Computers vorgeschlagen hat, der aus einem Standardverarbeiter und einer Reihe von "wiederkonfigurierbarem" gemacht ist

Hardware. Der Hauptverarbeiter würde das Verhalten der wiederkonfigurierbaren Hardware kontrollieren. Die Letzteren würden dann geschneidert, um eine spezifische Aufgabe, wie Bildverarbeitung oder das Muster-Zusammenbringen so schnell durchzuführen, wie ein hingebungsvolles Stück der Hardware. Sobald die Aufgabe erledigt wurde, konnte die Hardware angepasst werden, um eine andere Aufgabe zu erledigen. Das ist auf eine hybride Computerstruktur hinausgelaufen, die die Flexibilität der Software mit der Geschwindigkeit der Hardware verbindet; leider war diese Idee vor seiner Zeit mit der erforderlichen elektronischen Technologie weit.

In den 1980er Jahren und 1990er Jahren gab es eine Renaissance in diesem Gebiet der Forschung mit vielen vorgeschlagenen wiederkonfigurierbaren Architekturen, die in der Industrie und Akademie entwickelt sind wie: COPACOBANA, Matrix, Garp, Elixent, PAKT XPP, Silikonbienenstock, Montium, Pleiades, Morphosys, PiCoGA. Solche Designs waren wegen des unveränderlichen Fortschritts der Silikontechnologie ausführbar, die komplizierte Designs auf einem Span durchgeführt werden lassen. Der erste kommerzielle wiederkonfigurierbare Computer in der Welt, der Algotronix CHS2X4, wurde 1991 vollendet. Es war nicht ein kommerzieller Erfolg, aber versprach genug, dass Xilinx (der Erfinder der Feldprogrammierbaren Tor-Reihe, FPGA) die Technologie gekauft hat und den Personal von Algotronix angestellt hat.

Wiederkonfigurierbare Computerwissenschaft als eine Paradigma-Verschiebung: das Verwenden der Anti Maschine

Computerwissenschaftler Reiner Hartenstein beschreibt wiederkonfigurierbare Computerwissenschaft in Bezug auf eine anti Maschine, die, gemäß ihm, eine grundsätzliche Paradigma-Verschiebung weg von der herkömmlicheren Maschine von von Neumann vertritt.

Hartenstein nennt es Wiederkonfigurierbares Rechenparadox, dessen software-to-configware Wanderung (software-to-FPGA Wanderung) auf berichtete Beschleunigungsfaktoren bis zu mehr als vier Größenordnungen, sowie der Verminderung des Elektrizitätsverbrauchs durch bis zu fast vier Größenordnungen hinausläuft — obwohl die technologischen Rahmen von FPGAs hinter der Kurve von Gordon Moore durch ungefähr vier Größenordnungen sind, und die Uhr-Frequenz wesentlich niedriger ist als dieser von Mikroprozessoren. Dieses Paradox ist wegen einer Paradigma-Verschiebung, und wird auch durch das Syndrom von Von Neumann teilweise erklärt.

Das grundsätzliche Modell des wiederkonfigurierbaren Rechenmaschinenparadigmas, die Strom-basierte anti Maschine wird durch die Unterschiede zu anderen Maschinenparadigmen gut illustriert, die früher, wie gezeigt, von Nick Tredennick im Anschluss an das Klassifikationsschema von Rechenparadigmen eingeführt wurden (sieh "Tabelle 1: Das Paradigma-Klassifikationsschema von Nick Tredennick").

Das grundsätzliche Modell einer Wiederkonfigurierbaren Rechenmaschine, der Strom-basierten anti Maschine (hat auch Xputer genannt), ist die Kopie des auf die Instruktion gegründeten Maschinenparadigmas von von Neumann. Das wird durch ein einfaches wiederkonfigurierbares System illustriert (nicht dynamisch wiederkonfigurierbar), der keinen Instruktionsabruf in der Durchlaufzeit hat. Die Wiederkonfiguration (vor der Durchlaufzeit) kann als eine Art Superinstruktionsabruf betrachtet werden. Eine anti Maschine hat keinen Programm-Schalter. Die anti Maschine hat Datenschalter statt dessen, da sie Strom-gesteuert wird. Hier wird die Definition der Begriff-Datenströme von der Systolic-Reihe-Szene angenommen, die definiert, an der Zeit der Datenartikel hereingehen oder abreisen muss, welcher Hafen, hier des wiederkonfigurierbaren Systems, das feinkörnig sein kann (zum Beispiel FPGAs verwendend), oder grobkörnig, oder eine Mischung von beiden.

Die Systolic-Reihe-Szene, ursprünglich (Anfang der 1980er Jahre) hauptsächlich Mathematiker, hat nur eine Hälfte der anti Maschine definiert: der Datenpfad: Die Systolic-Reihe (sieh auch Supersystolic-Reihe). Aber sie haben nicht definiert noch die Datenablaufsteuerungsmethodik modelliert, denkend, dass das nicht ihr Job ist aufzupassen, wo die Datenströme herkommen oder enden. Die Daten sequencing ein Teil der anti Maschine werden als verteiltes Gedächtnis vorzugsweise auf dem Span modelliert, der aus Blöcken des Auto-Sequencing-Gedächtnisses (ASM) besteht. Jeder ASM-Block hat eine Ablaufsteuerung einschließlich eines Datenschalters. Ein Beispiel ist Generic Address Generator (GAG), das eine Generalisation des DMA ist.

Beispiel eines strömenden Modells der Berechnung

Problem: Uns wird 2 Charakter-Reihe der Länge 256 gegeben: [] und B []. Wir müssen die Reihe C [] solch dass schätzen

C [ich] =B [B [B [B [B [B [B [B [[ich]]]]]]]]].

Obwohl dieses Problem hypothetisch ist, ähnliche Probleme bestehen, die einige Anwendungen haben.

Denken Sie eine Softwarelösung (C Code) für das obengenannte Problem:

für (interne Nummer i=0; ich

Dieses Programm wird über 256*10*CPI Zyklen für die Zentraleinheit nehmen, wo CPI die Zahl von Zyklen pro Instruktion ist.

Betrachten Sie jetzt die Hardware-Durchführung als gezeigt hier, sagen Sie auf einem FPGA. Hier, ein Element von der Reihe 'verströmt' durch einen Mikroprozessor in den Stromkreis jeder Zyklus zu sein. Die Reihe 'B' wird als ein ROM vielleicht im BRAMs des FPGA durchgeführt. Die Leitung, die in den etikettierten ROMs eintritt, sind 'B' die Adresslinien, und die Leitungen sind die Werte, die im ROM an dieser Adresse versorgt sind. Die blauen Kästen sind Register, die verwendet sind, um vorläufige Werte zu versorgen

Klar ist das eine Rohrleitung, und wird Produktion 1 Wert (ein nützlicher C, den [ich] schätze) nach dem 8. Zyklus. Folglich ist die Produktion auch ein 'Strom'.

Die Hardware-Durchführung nimmt 256+8 Zyklen.

Folglich können wir eine Beschleunigung ungefähr 10*CPI über die Softwaredurchführung erwarten. Jedoch ist die Beschleunigung viel weniger als dieser Wert wegen der langsamen Uhr des FPGA.

Siehe auch

  • Wiederkonfigurierbare Rechenfachsprache
  • Teilweise Wiederkonfiguration
  • Sprinter
  • 1chipMSX
  • PSoC
  • Milkymist
  • PipeRench
  • Die Computerwissenschaft mit dem Gedächtnis
  • Wiederkonfigurierbare Hochleistungscomputerwissenschaft

Weiterführende Literatur

  • S. Hauck und A. DeHon, Wiederkonfigurierbare Computerwissenschaft: Die Theorie und Praxis der FPGA-basierten Computerwissenschaft, Morgan Kaufmanns, 2008.
  • J. Henkel, S. Parameswaran (Redakteure): Das Entwerfen von Eingebetteten Verarbeitern. Eine Niedrige Macht-Perspektive; Springer Verlag, März 2007
  • J. Teich (Redakteur) u. a.: Wiederkonfigurierbare Rechensysteme. Spezielles Thema-Problem der Zeitschrift es — Informationstechnologie, Oldenbourg Verlag, München. Vol. 49 (2007) Ausgabe 3
  • T.J. Todman, G.A. Constantinides, S.J.E. Wilton, O. Mencer, W. Luk und P.Y.K. Cheung, "Wiederkonfigurierbare Computerwissenschaft: Architekturen und Designmethoden", IEE Verhandlungen: Computer & Digitaltechniken, Vol. 152, Nr. 2, März 2005, Seiten 193-208.
  • A. Zomaya (Redakteur): Handbuch der Natur-inspirierten und Innovativen Computerwissenschaft: Integrierung Klassischer Modelle mit Emerging Technologies; Springer Verlag, 2006
  • J. M. Arnold und D. A. Buell, "VHDL, der auf dem Spritzen 2," in Mehr FPGAs, Will Moore und Wayne Luk, Redakteuren, Abingdon EE & CS Books, Oxford, England, 1994, Seiten 182-191 programmiert. (Verhandlungen, Internationale Werkstatt auf der Feldprogrammierbaren Logik, Oxford, 1993.)
  • J. M. Arnold, D. A. Buell, D. Hoang, D. V. Pryor, N. Shirazi, M. R. Thistle, "Spritzen 2 und seine Anwendungen, "Verhandlungen, Internationale Konferenz für das Computerdesign, Cambridge, 1993, Seiten 482-486.
  • D. A. Buell und Kenneth L. Pocek, "Kundenspezifische Rechenmaschinen: Eine Einführung," Die Zeitschrift der Supercomputerwissenschaft, v. 9, 1995, Seiten 219-230.

Links


Source is a modification of the Wikipedia article Reconfigurable computing, licensed under CC-BY-SA. Full list of contributors here.
Elektronisches Gemütlichkeitsinformationszentrum / Riverdale (Comics von Archie)
Impressum & Datenschutz