|
![]() |
|||
|
||||
OverviewDie numerische Lösung vieler interessanter Aufgaben aus dem ingenieunechnischen Bereich scheitert auch nach dem Jahrzehnt der (Vektor-) Supercomputer an den Leistungsgrenzen die- ser Architekturen. Während die Prozessortechnologie sich langsam den Grenzen des physika- lisch Machbaren nähert, offeriert Parallelismus auf Prozessorebene praktisch unbegrenzte Lei- stung. Zu lösen ist ""nur"" noch die Frage der optimalen Architektur eines Multiprozessorsy- stems und eng damit zusammenhängend die Frage der Programmierbarkeit solcher Systeme. Dieses Buch entstand unter dem Aspekt der ""Wechselwirkungen zwischen parallelen Algorith- men und Rechnerarchitektur"" und diskutiert beide Fragen anhand der Lösung von lin Full Product DetailsAuthor: Jürgen Brehm , Jurgen BrehmPublisher: Deutscher Universitats-Verlag Imprint: Deutscher Universitats-Verlag Edition: 1992 ed. Dimensions: Width: 14.80cm , Height: 0.80cm , Length: 21.00cm Weight: 0.202kg ISBN: 9783824420261ISBN 10: 3824420260 Pages: 137 Publication Date: 01 January 1992 Audience: Professional and scholarly , Professional & Vocational Format: Paperback Publisher's Status: Active Availability: In Print ![]() This item will be ordered in for you from one of our suppliers. Upon receipt, we will promptly dispatch it out to you. For in store availability, please contact us. Language: German Table of ContentsEinfuhrung.- 1. Parallele Rechnerarchitekturen.- 1.1. Vektorrechner.- 1.2. Multiprozessoren.- 1.2.1. Speicherkopplung mit global gemeinsamem Speicher (Beispiele Alliant FX/8, Encore Multimax, Sequent Balance).- 1.2.2. Speicherkopplung mit global verteiltem Speicher (Beispiel DIRMU 25).- 1.2.3. Nachrichtenkopplung (Beispiel SUPRENUM).- 1.3. Kommunikationsmechanismen in Multiprozessoren.- 1.3.1. Programmiermodell bei nachrichtengekoppelten Systemen.- 1.3.2. Kommunikation in nachrichtengekoppelten Systemen.- 1.3.3. Programmiermodell bei speichergekoppelten Systemen.- 1.3.4. Kommunikation in speichergekoppelten Systemen.- 2. Sequentielle Loesung von grossen, linearen Gleichungssystemen mit dunn besetzter Koeffizientenmatrix.- 2.1. Definitionen.- 2.2. Direkte Verfahren.- 2.2.1. Datenstrukturen.- 2.2.2. Pivotisierung.- 2.3. Iterative Verfahren.- 2.3.1. Eingitterverfahren.- 2.3.2. Mehrgitterverfahren.- 2.4. Semi-iterative Verfahren.- 2.4.1. Methode der konjugierten Gradienten.- 2.4.2. Vorkonditionierung.- 3. Parallelisierung der Algorithmen.- 3.1. Datenabhangigkeitsanalyse.- 3.2. Vektorisierung.- 3.2.1. Direkte Verfahren.- 3.2.2. Iterative Verfahren.- 3.2.3. Semi-iterative Verfahren.- 3.3. Nebenlaufigkeit.- 3.3.1. Aufteilung des Loesungsgebiets.- 3.3.2. Direkte Verfahren.- 3.3.3. Iterative Verfahren.- 3.3.4. Semi-iterative Verfahren.- 3.4. Kommunikationstopologien.- 3.4.1. Prozessorkonfigurationen fur DIRMU 25.- 3.4.2. Kommunikationstopologien fur SUPRENUM.- 4. Implementierung der Algorithmen auf unterschiedlichen Multiprozessoren.- 4.1. Geschwindigkeitsgewinn und Effizienz.- 4.2. Effizienzverluste bei parallelen Algorithmen.- 4.3. Implementierung auf Multiprozessoren mit global gemeinsamem Speicher.- 4.3.1. FORCE - eine parallele Programmiersprache.- 4.3.2. Ergebnisse fur Multiprozessoren mit global gemeinsamem Speicher.- 4.3.2.1. Direkte Verfahren.- 4.3.2.2. Semi-iterative Verfahren.- 4.3.2.3. Iterative Verfahren.- 4.4. Implementierung auf Multiprozessoren mit verteiltem Speicher.- 4.4.1. Modula-2 auf DIRMU 25.- 4.4.2. Implementierungen auf DIRMU 25.- 4.4.3. Direkte Verfahren.- 4.4.4. Iterative Verfahren.- 4.5. Implementierung auf SUPRENUM.- 4.5.1. Concurrent Modula-2 fur SUPRENUM.- 4.5.2. MIMD Fortran fur SUPRENUM.- 4.5.3. SUPRENUM Simulationssystem.- 4.5.4. Ergebnisse fir SUPRENUM.- 4.5.4.1. Direkte Verfahren.- 4.5.4.2. Semi-iterative Verfahren.- 4.5.4.3. Iterative Verfahren.- 4.6. Zusammenfassung der Ergebnisse.- 5. Bewertung der Ergebnisse.- 5.1. Algorithmische Konsequenzen.- 5.1.1. Entwicklung von neuen, parallelen und vektorisierbaren Algorithmen.- 5.1.2. Formulierung von Algorithmen fur parallele Rechnerstrukturen.- 5.2. Konsequenzen fur die Rechnerarchitektur.- 5.2.1. Reduktion der Kosten fur lokale Kommunikation.- 5.2.2. Hardwareunterstutzung bei globalen Kommunikationsvorgangen.- 5.2.3. Entwicklung eines Benchmark-Konzepts fur Multiprozessoren.- 5.3. Parallele Entwicklungsumgebungen.- 5.3.1. Simulationssysteme.- 5.3.2. Parallele Debugger.- 5.3.3. Diagnoseunterstutzung.- 6. Eine parallele, architekturunabhangige Programmierumgebung.- 6.1 Existierende Ansatze fur parallele Programmiersprachen.- 6.1.1 VSM - Virtual Shared Memory.- 6.1.2. Virtuelle Kanale.- 6.1.3. Hilfsmittel fur den INTEL Hypercube.- 6.1.4. Autoparallelisierer fur Algorithmen auf SUPRENUM.- 6.2. Die parallele Programmierumgebung PPRC.- 6.3. Feldkonfiguration: PPRC Programm fur ein iteratives Verfahren.- 6.4. Baumkonfiguration: PPRC Programm fur das globale Skalarprodukt.- 6.5. PPRC im Unterschied zu den existierenden Ansatzen.- 6.6. Implementierung von PPRC auf Multiprozessoren.- 6.6.1. Implementierung der Konfigurationsmanager.- 6.6.2 Implementierung der Basiskommunikationsroutinen (give_info, get_info).- 6.6.3. Implementierung von komplexen Kommunikationsroutinen.- 6.7. PICL und PPRC.- 6.8. PPRC: Zusammenfassung und Ausblick.- 7. Ausblick.- 7.1. Massiv parallele Systeme.- 7.1.1. Connection Machine.- 7.1.2. MEMSY.- 7.2. The Roads to El Dorado.- 8. Literaturverzeichnis.ReviewsAuthor InformationTab Content 6Author Website:Countries AvailableAll regions |