|
![]() |
|||
|
||||
OverviewModerne Hochleistungsrechner mit akzeptablem Programmieraufwand effizient zu nutzen, erfordert eine höhere Programmiersprache. High Performance Fortran (HPF), ein De-facto-Standard im Bereich des Hochleistungsrechnens, ermöglicht die Programmierung von Parallelrechnern auf einer sehr hohen und damit benutzerfreundlichen Abstraktionsebene bei gleichzeitiger Erzielung hoher Laufzeiteffizienz. Das vorliegende Buch gibt eine Einführung in den Bereich des Hochleistungsrechnens und beschreibt den aktuellen Stand der Entwicklungen bei HPF. Es bietet Programmierern von Hochleistungsrechnern und Anwendern paralleler numerischer Algorithmen eine unentbehrliche Unterstützung bei der Verwendung von HPF. Full Product DetailsAuthor: W. Gansterer , C. ÜberhuberPublisher: Springer-Verlag Berlin and Heidelberg GmbH & Co. KG Imprint: Springer-Verlag Berlin and Heidelberg GmbH & Co. K Dimensions: Width: 15.50cm , Height: 1.90cm , Length: 23.50cm Weight: 0.560kg ISBN: 9783540423669ISBN 10: 3540423664 Pages: 344 Publication Date: 11 September 2001 Audience: Professional and scholarly , Professional & Vocational Format: Paperback Publisher's Status: Active Availability: Out of stock ![]() The supplier is temporarily out of stock of this item. It will be ordered for you on backorder and shipped when it becomes available. Language: German Table of Contents1 Hardware.- 1.1 Prozessoren.- 1.1.1 Das Pipeline-Prinzip.- 1.1.2 RISC-Prozessoren.- 1.1.3 Pipeline-Prinzip in RISC-Prozessoren.- 1.1.4 Vektorprozessoren.- 1.2 Speicher.- 1.2.1 Die Parameter eines Speichersystems.- 1.2.2 Speicherhierarchien.- 1.2.3 Adressierungsarten.- 1.2.4 Register.- 1.2.5 Der Cache-Speicher.- 1.2.6 Cache-Koharenz.- 1.2.7 Der Hauptspeicher.- 1.2.8 Die Speicherung von Datenstrukturen.- 1.3 Kommunikation.- 1.3.1 Leistung.- 1.3.2 Skalierbarkeit.- 1.3.3 Technologie.- 1.3.4 Verbindungstypen.- 1.3.5 Verbindungsstrukturen.- 1.3.6 Kommunikationsstrukturen.- 1.4 Parallelrechner.- 1.4.1 Grobstruktur von Parallelrechnern.- 1.4.2 Klassifikation von Rechnerarchitekturen.- 1.4.3 Speichergekoppelte Systeme.- 1.4.4 Nachrichtengekoppelte Systeme.- 1.5 Entwicklungstrends.- 2 Leistung.- 2.1 Der Begriff Leistung .- 2.1.1 Der Leistungsfaktor Arbeit.- 2.1.2 Der Leistungsfaktor Zeit.- 2.2 Quantifizierung der Leistung.- 2.2.1 Analytische Leistungsbewertung der Hardware.- 2.2.2 Die Leistung von Vektorprozessoren.- 2.2.3 Der Leistungseinfluss des Speichers.- 2.2.4 Empirische Leistungsbewertung.- 2.2.5 Bewertung von leistungssteigernden Massnahmen.- 2.2.6 Das Gesetz von Amdahl.- 2.2.7 Das Modell von Gustafson.- 2.2.8 Variable Parallelisierbarkeit.- 2.3 Benchmarks.- 2.3.1 Herkunft von Benchmarks.- 2.3.2 Ziele von Benchmarks.- 2.4 Beispiele fur Benchmarks.- 2.4.1 EuroBen.- 2.4.2 Flops.- 2.4.3 GENESIS Distributed Benchmarks.- 2.4.4 LINPACK-Benchmark fur einen Prozessor.- 2.4.5 LINPACK-Benchmark fur Parallelrechner.- 2.4.6 Livermore Loops.- 2.4.7 LLCbench.- 2.4.8 NAS Parallel Benchmarks (NPB).- 2.4.9 PARKBENCH.- 2.4.10 Perfect-Benchmark.- 2.4.11 SLALOM.- 2.4.12 SPEC-Benchmarks.- 2.4.13 Whetstone.- 2.4.14 Andere Benchmarks.- 2.5 Schwachen von Benchmarks.- 2.5.1 Kritik an Benchmarkresultaten.- 2.5.2 Das Zusammenfassen von Benchmarkresultaten.- 2.5.3 Standardisierungen.- 2.6 Das Preis-Leistungs-Verhaltnis.- 2.6.1 Definition des PLV.- 2.6.2 Vergleich von Computersystemen.- 2.6.3 Der Gordon-Bell-Preis.- 3 Algorithmen.- 3.1 Grundoperationen der Linearen Algebra.- 3.1.1 Vektor-Vektor-Operationen.- 3.1.2 Matrix-Vektor-Operationen.- 3.1.3 Matrix-Matrix-Operationen.- 3.1.4 BLAS.- 3.1.5 Geblockte Algorithmen.- 3.1.6 Das Aufrollen von Schleifen.- 3.2 Die Matrizenmultiplikation.- 3.2.1 Matrix-Vektor-Multiplikation.- 3.2.2 Matrix-Matrix-Multiplikation.- 3.2.3 Die ijk-Form.- 3.2.4 Verschiedene Formen der Matrizenmultiplikation.- 3.2.5 Massnahmen zur Leistungsverbesserung.- 3.2.6 Matrix-Matrix-Multiplikation auf Parallelrechnern.- 3.3 Die Loesimg linearer Gleichungssysteme.- 3.3.1 LU-Zerlegung.- 3.3.2 Schleifenreihenfolgen.- 3.3.3 Komplexitat der LU-Zerlegung.- 3.3.4 Pivot Strategien.- 3.3.5 Geblockte LU-Zerlegung.- 3.3.6 LU-Zerlegung auf Parallelrechnern.- 3.3.7 Cholesky-Zerlegung.- 4 Fortran 95.- 4.1 Felder.- 4.1.1 Die Darstellung von Literalen.- 4.1.2 Die Vereinbarung von Feldern.- 4.2 Belegung und Verknupfung von Feldern.- 4.2.1 Die Speicherung von Feldern.- 4.2.2 Der Zugriff auf Felder.- 4.2.3 Die Wertzuweisung.- 4.2.4 Operatoren.- 4.3 Die Verarbeitung von Feldern.- 4.3.1 Elementweise Operationen auf Feldern.- 4.3.2 Auswahl mit Feld-Bedingungen.- 4.3.3 Speicherverwaltung.- 4.3.4 Felder als Parameter.- 4.3.5 Funktionen mit Feldresultaten.- 4.3.6 Vordefinierte Unterprogramme.- 4.4 Unterprogrammschnittstellen.- 4.4.1 Explizite Schnittstellen.- 4.4.2 Implizite Schnittstellen.- 4.4.3 Schnittstellenbloecke.- 4.5 FORALL.- 4.5.1 Die FORALL-Anweisung.- 4.5.2 Der FORALL-Block.- 4.6 PURE-Unterprogramme.- 4.6.1 Syntaxregeln fur das PURE-Prafix.- 4.6.2 Einschrankungen.- 5 High Performance Fortran - HPF.- 5.1 Die Entwicklung von HPF.- 5.2 Die Konzeption von HPF.- 5.2.1 HPF und Fortran.- 5.2.2 Das Programmiermodell von HPF.- 5.2.3 Die syntaktische Struktur von HPF.- 5.3 Datenverteilung und Datenausrichtung.- 5.3.1 Das Modell der Datenabbildung.- 5.3.2 Die PROCESSORS-Anweisung.- 5.3.3 * in ALIGN- und DISTRIBUTE-Anweisungen.- 5.3.4 Die DISTRIBUTE-Anweisung zur Datenverteilung.- 5.3.5 Die ALIGN-Anweisung zur Datenausrichtung.- 5.3.6 Die TEMPLATE-Anweisung.- 5.3.7 Der Kommunikationsaufwand.- 5.4 Datenabbildung in Unterprogrammen.- 5.4.1 Vorschreibendes ALIGN und DISTRIBUTE.- 5.4.2 Transkriptive Datenabbildung.- 5.4.3 Die INHERIT-Anweisung.- 5.4.4 AEnderungen im Vergleich zu HPF 1.- 5.4.5 Abstrakte Prozessoren in Unterprogrammen.- 5.4.6 Templates in Unterprogrammen.- 5.5 Datenparallele Verarbeitung.- 5.5.1 PURE-Unterprogramme.- 5.5.2 Die INDEPENDENT-Anweisung.- 5.6 EXTRINSIC-Unterprogramme.- 5.6.1 Das EXTRINSIC-Prafix.- 5.6.2 Der Aufruf von EXTRINSIC-Unterprogrammen.- 5.6.3 HPF und Numerische Software.- 5.7 Speicher- und Abfolgeassoziierung.- 5.7.1 Die SEQUENCE-Anweisung.- 5.7.2 Parameterubergabe und Abfolgeassoziierung.- 6 Anerkannte Erweiterungen von HPF.- 6.1 Erweiterungen fur die Datenabbildung.- 6.1.1 Dynamische Datenabbildung.- 6.1.2 Neue Verteilungsformate.- 6.1.3 Erweiterungen der DISTRIBUTE-Anweisung.- 6.1.4 Die RANGE-Anweisung.- 6.1.5 Die SHADOW-Anweisung.- 6.2 Daten- und Funktionsparallelismus.- 6.2.1 Aktive Prozessoren.- 6.2.2 Die ON-Anweisung.- 6.2.3 Die RESIDENT-Anweisung.- 6.2.4 Die TASK_ REGION-Anweisung.- 6.3 Erweiterungen fur extrinsische Unterprogramme.- 6.3.1 Das LOCAL-Modell.- 6.3.2 Das SERIAL-Modell.- 6.3.3 Einbindungen verschiedener Programmiersprachen.- 6.4 Neue und erweiterte Unterprogramme.- 6.4.1 Vordefinierte Unterprogramme.- 6.4.2 Erweiterungen der HPF-Bibliothek.- 6.5 Asynchrone Ein-/Ausgabe.- 7 Andere Arten der Programmierung von Parallelrechnern.- 7.1 Expliziter Nachrichtenaustausch.- 7.1.1 Parallel Virtual Machine (PVM).- 7.1.2 Message Passing Interface (MPI).- 7.2 Programmierung speichergekoppelter Mehrprozessoren.- 7.2.1 OpenMP.- 7.2.2 Thread-Pakete.- 7.2.3 SHMEM.- 7.3 Virtual Shared Memory.- 7.4 Paralleles Programmieren mit Java.- A HPF-Unterprogramme.- A.1 Vordefinierte Unterprogramme.- A.2 Bibliotheksunterprogramme.- A.2.1 SUBROUTINEs zur Datenabbildungsabfrage.- A.2.2 Bit-Manipulationsfunktionen.- A.2.3 Feld-Sortierfunktionen.- A.2.4 Feld-Reduktionsfunktionen.- A.2.5 Feld-Streufunktionen.- A.2.6 Prafix- und Suffix-Feldfunktionen.- Literatur.ReviewsAuthor InformationTab Content 6Author Website:Countries AvailableAll regions |