Advertisement

Grundlagen der Parallelverarbeitung

  • Birgit Schwartz
Part of the Gabler Edition Wissenschaft book series (GEW)

Zusammenfassung

Parallele Verarbeitung bzw. Parallelverarbeitung ist eine effiziente Form der Informationsverarbeitung, bei der die gleichzeitige Bearbeitung im Vordergrund steht. Sie ist auf verschiedenen Ebenen möglich.104

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Literatur

  1. 104.
    Hwang, K., Briggs, F.A.: Computer architecture and parallel processing, New York 1984, S. 6 fGoogle Scholar
  2. 105.
    Giloi, W.K.: Rechnerarchitekturen, Berlin Heidelberg 1981, S. 113 f; Hwang, K., Briggs, F.A.: a.a.O., S. 7Google Scholar
  3. 106.
    Hwang, K., Briggs, F.A.: a.a.O., S. 20; Quinn, M.J.: Designing efficient algorithms for parallel computers, New York 1987, S. 13Google Scholar
  4. 107.
    Die Einteilung in Generationen basiert im wesentlichen auf der Einteilung von HWANG und BRIGGS. Vgl. hierzu: Hwang, K., Briggs, F.A.: a.a.O., S. 2 ffGoogle Scholar
  5. 108.
    Ns entspricht 10-6 s.Google Scholar
  6. 109.
    Das Prinzip des Pipelining wird im Abschnitt 3.4.1.1. noch näher erläutert.Google Scholar
  7. 110.
    ns entspricht 10-9 s.Google Scholar
  8. 111.
    Hockney, R.W., Jesshope, C.R.: Parallel computers 2, architecture, programming and algorithms, 2. Aufl., Bristol Philadelphia 1988, S. 4Google Scholar
  9. 112.
    TROTTENBERG nimmt für die Parallelrechner ebenfalls eine Einteilung in Generationen vor. Hiernach bilden Vektorrechner die erste Generation von Parallelrechnern, Multi-Vektorrechner mit mehreren CPUs und dem Konzept eines gemeinsamen Speichers die zweite Generation und Multiprozessorsysteme mit vielen unabhängigen Prozessoren und eigenem lokalen Speicher die dritte Generation. Vgl. hierzu: Solchenbach, K., Thomas, B., Trottenberg, U.: Dem parallelen Rechnen gehört die Zukunft, in: Meuer, H.W. (Hrsg.), Supercomputer ‘89, Anwendungen, Architekturen, Trends, Mannheim, Juni 1989, Proceedings, Berlin Heidelberg 1989, S. 110–118, hier S. 110Google Scholar
  10. 113.
    Hertweck, F.: Vektor- und Parallel-Rechner: Vergangenheit, Gegenwart, Zukunft, Informationstechnik, 31. Jg., Heft 1, 1989, S. 5–22, hier S. 5Google Scholar
  11. 114.
    Giloi, W.K.: a.a.O., S. 25Google Scholar
  12. 115.
    SHORE zählt hierzu die Kontrolleinheit (CU), die Prozessoreinheit (PU), den Instruktionsspeicher (IM) und den Datenspeicher (DM). Vgl. hierzu: Hockney, R.W., Jesshope, C.R.: a.a.O., S. 58 ffGoogle Scholar
  13. 116.
    Quinn, M.J.: Designing efficient algorithms for parallel computers, a.a.O., S. 17Google Scholar
  14. 117.
    Schönauer, W.: Scientific Computing on Vector Computers, Amsterdam New York 1987, S. 12 und S. 159Google Scholar
  15. 118.
    Schönauer, W.: a.a.O., S. 18, S. 33 und S. 159Google Scholar
  16. 119.
    Hwang, K., Briggs, F.A.: a.a.O., S. 325–327Google Scholar
  17. 120.
    Weitere Unterscheidungsmerkmale sind z.B. homogen - inhomogen, symmetrisch - asymmetrisch; vgl. hierzu Giloi, W.: a.a.O., S. 308 fGoogle Scholar
  18. 121.
    Eine Beschreibung des Rechners findet sich z.B. in: Quinn, M.J.: Designing efficient algorithms for parallel computers, a.a.O., S. 37–41; Hwang, K., Briggs, F.A.: a.a.O., S. 460–468Google Scholar
  19. 122.
    Diese drei kommerziellen Multiprozessorsysteme sind z.B. beschrieben in: Hockney, R.W., Jesshope, C.R.: a.a.O., S. 42 und S. 47 fGoogle Scholar
  20. 123.
    Quinn, M.J.: Designing efficient algorithms for parallel computers, a.a.O., S. 35–37; Hwang, K., Briggs, F.A.: a.a.O., S. 468–471 und S. 481–492Google Scholar
  21. 124.
    Diese stark gekoppelten Systeme sind wiederum beschrieben in: Hockney, R.W., Jesshope, C.R.: a.a.O., S. 43–46Google Scholar
  22. 125.
    Mierzowski, K.: Vektorrechner liegen noch vom im Supercomputer-Markt, VDI nachrichten, Nr. 33, 14. August 1992, S. 10Google Scholar
  23. 126.
    Solchenbach, K., Thomas, B., Trottenberg, U.: a.a.O., S. 114Google Scholar
  24. 127.
    Solchenbach, K., Thomas, B., Trottenberg, U.: a.a.O., S. 111Google Scholar
  25. 128.
    Die Angaben zur Anzahl Prozessoren sind beim ParagonT’ XP/S, dem Parsytec GC und dem VPP500 Herstellerangaben entnommen.Google Scholar
  26. 129.
    Die Angaben zum Grad der Parallelität basieren jeweils auf der zum Zeitpunkt der Entwicklung bestehenden Auffassung.Google Scholar
  27. 130.
    Die Architektur von Datenflußrechnern wird z.B. erklärt in: Quinn, M.J.: Designing efficient algorithms for parallel computers, a.a.O., S. 11 f; Hwang, K., Briggs, F.A.: a.a.O., S. 732 ffGoogle Scholar
  28. 131.
    Hwang, K., Briggs, F.A.: a.a.O., S. 747Google Scholar
  29. 132.
    Im Zusammenhang mit der parallelen Verarbeitung auf einem Workstation-LAN wird auch von einem Workstation-Cluster gesprochen.Google Scholar
  30. 133.
    ohne Autor: Kostendruck verändert die vorhandene DV-Landschaft, PC magazin, Nr. 34, 19. August 1992, S. 41–43Google Scholar
  31. 134.
    Plewka, W., Reischuk, R.: Grundlagen parallelen Rechnens, HMD Theorie und Praxis der Wirt- schaftsinformatik, Parallelverarbeitung, 27. Jg., Heft 155, September 1990, S. 3–19, hier S. 14 fGoogle Scholar
  32. 135.
    Quinn, M.J.: Designing efficient algorithms for parallel computers, a.a.O., S. 43Google Scholar
  33. 136.
    Quinn, M.J.: Designing efficient algorithms for parallel computers, a.a.O., S. 44Google Scholar
  34. 137.
    Quinn, M.J.: Designing efficient algorithms for parallel computers, a.a.O., S. 19Google Scholar
  35. 138.
    Gustayson, J.L.: Reevaluating Amdahl’s law, Communications of the ACM, Vol. 31, Nr. 5, 1988, S. 532–533CrossRefGoogle Scholar
  36. 139.
    Quinn, M.J.: Designing efficient algorithms for parallel computers, a.a.O., S. 18; Hwang, K., Briggs, F.A.: a.a.O., S. 27–29; Giloi, W.K.: a.a.O., S. 141Google Scholar
  37. 140.
    Hwang, K., Briggs, F.A.: a.a.O., S. 27–29Google Scholar
  38. 141.
    Giloi, W.K.: a.a.O., S. 142Google Scholar
  39. 142.
    Mit der Performance von Parallelrechnern befassen sich ebenfalls FLATT und KENNEDY; vgl. hierzu: Flatt, H.P., Kennedy, K.: Performance of parallel processors, Parallel Computing, Vol. 12, 1989, S. 1–20Google Scholar
  40. 143.
    Die verschiedenen Overheads werden im nächsten Abschnitt näher beschrieben.Google Scholar
  41. 144.
    Die im folgenden zitierten Literaturquellen stellen nur einen Ausschnitt eines Literaturüberblicks von SCHAUER dar. Vgl. hierzu: Schauer, A.: Superlinearer Speedup mit parallelen Programmen, Bericht Nr. 9005, Universität der Bundeswehr München, Fakultät für Informatik, Juni 1990Google Scholar
  42. 145.
    Faber,V., Lubeck, O.M., White Jr., A.B.: Superlinear speedup of an efficient sequential algorithm is not possible, Parallel Computing, Vol. 3, 1986, S. 259–260Google Scholar
  43. 146.
    Hierzu zählt auch der in der vorliegenden Arbeit betrachtete Branch-and-Bound-Algorithmus.Google Scholar
  44. 147.
    Vgl. z.B.: Speckenmeyer, E., Monien, B., Vornberger, O.: Superlinear Speedup for Parallel Backtracking, in: Houstis, E.N., Papatheodorou, T.S., Polychronopoulos, C.D. (Hrsg.), Supercomputing 1st International Conference, Athens, Greece, Juni 1987, Proceedings, Berlin Heidelberg 1988, S. 985–993Google Scholar
  45. 148.
    Vgl. hierzu: Li, K.: IVY: A Shared Virtual Memory System for Parallel Computing, in: Sturgis, H.E. (Hrsg.), Proceedings of the 1988 International Conference on Parallel Processing, Vol. II, Software, August 1988, Pennsylvania State University 1988, S. 94–101; Sanguinetti, J.: Performance of a Message-based Multiprocessor, Computer, Vol. 19, Nr. 9, September 1986, S. 47–55Google Scholar
  46. 149.
    Helmbold, D.P., McDowell, C.E.: Modeling Speedup(n) greater than n, in: Ris, F., Kogge, P.M. (Hrsg.), Proceedings of the 1989 International Conference on Parallel Processing, Vol. III, Algorithms and Applications, August 1989, Pennsylvania State University 1989, S. 219–225Google Scholar
  47. 150.
    Auf das Auftreten von superlinearem Speedup bei einem parallelen Branch-and-Bound-Algorithmus wird noch im Kapitel 5 eingegangen.Google Scholar
  48. 151.
    Fox, G.C., Johnson, M.A., Lyzenga, G.A., Otto, S.W., Salmon, J.K., Walker, D.W.: Solving Problems On Concurrent Processors, Vol. I, General Techniques and Regular Problems, Englewood Cliffs New Jersey 1988, S. 55Google Scholar
  49. 152.
    Der dadurch auftretende algorithmische Overhead wird auch als Such-Overhead bezeichnet. Vgl. hierzu: Altmann, E., Marsland, T.A., Breitkreutz, T.: Accounting for Parallel Tree Search Overheads, in: Baily, D.H. (Hrsg.), Proceedings of the 1988 International Conference on Parallel Processing, August 1988, Vol. III, Algorithms and Applications, August 1988, Pennsylvania State University 1988, S. 198–201, hier S. 198Google Scholar
  50. 153.
    Fox, G.C., Johnson, M.A., Lyzenga, G.A., Otto, S.W., Salmon, J.K., Walker, D.W.: a.a.O., S. 56; Altmann, E., Marsland, T.A., Breitkreutz, T.: a.a.O., S. 198; Hockney, R.W., Jesshope, C.R.: a.a.O., S. 102Google Scholar
  51. 154.
    Fox, G.C., Johnson, M.A., Lyzenga, G.A., Otto, S.W., Salmon, J.K., Walker, D.W.: a.a.O., S. 56; Hockney, R.W., Jesshope, C.R.: a.a.O., S. 102Google Scholar
  52. 155.
    Fox, G.C., Johnson, M.A., Lyzenga, G.A., Otto, S.W., Salmon, J.K., Walker, D.W.: a.a.O., S. 56; Altmann, E., Marsland, T.A., Breitkreutz, T.: a.a.O., S. 198; Hockney, R.W., Jesshope, C.R.: a.a.O., S. 102Google Scholar
  53. 156.
    Sanguinetti, J.: Performance of a Message-based Multiprocessor, Computer, Vol. 19, Nr. 9, September 1986, S. 47–55, hier S. 47Google Scholar
  54. 157.
    Fox, G.C., Johnson, M.A., Lyzenga, G.A., Otto, S.W., Salmon, J.K., Walker, D.W.: a.a.O., S. 56Google Scholar

Copyright information

© Springer Fachmedien Wiesbaden 1994

Authors and Affiliations

  • Birgit Schwartz

There are no affiliations available

Personalised recommendations