Advertisement

Zusammenfassung

Als Folge der zunehmenden Komplexität des Unternehmensgeschehens und des wachsenden Bestrebens der Unternehmungen, die Produktivität und die Wirtschaftlichkeit der ablaufenden Betriebsprozesse zu erhöhen, steigt die Notwendigkeit, Entscheidungen nicht spontan, sondern auf der Grundlage einer alle Handlungsalternativen abwägenden, an den Unternehmenszielen ausgerichteten Planung zu treffen.1 Diese Erkenntnis setzte sich in der Betriebswirtschaftslehre schon sehr früh durch und führte dazu, daß bereits in den 50er und 60er Jahren eine Vielzahl von linearen und gemischt-ganzzahligen Modellen zur Abbildung der in der betrieblichen Praxis anstehenden Planungsprobleme formuliert wurden.2

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Literatur

  1. 1.
    Adam, D.: Kurzlehrbuch Planung, 2. Aufl., Wiesbaden 1983, S. 11CrossRefGoogle Scholar
  2. 2.
    Vgl. hierzu z.B.: Dinkelbach, W., Hax, H.: Die Anwendung der gemischt-ganzzahligen linearen Programmierung auf betriebswirtschaftliche Entscheidungsprobleme, Zeitschrift für handelswissenschaftliche Forschung, 14. Jg., 1962, S. 179–196; Dinkelbach, W., Steffens, F.: Gemischt ganzzahlige Programme zur Lösung gewisser Entscheidungsprobleme, Unternehmensforschung, Bd. 5, 1961, S. 3–14Google Scholar
  3. 3.
    Vgl. hierzu z.B.: Brauer, K.M.: Binäre Optimierung, Köln Berlin 1969, S. 15; Kilger, W.: Optimale Produktions-und Ablaufplanung, Opladen 1973, S. 10Google Scholar
  4. 4.
    Einen Überblick über die in der Literatur veröffentlichten Maßnahmen zur Verbesserung der Algorithmen für den Bereich der linearen Optimierung bis 1980 gibt BASTIAN. Vgl. hierzu: Bastian, M.: Lineare Optimierung großer Systeme, Königstein/Ts. 1980. Für den Bereich der gemischt-ganzzahligen Optimierung findet sich eine Zusammenfassung in: Forrest, J.J.H., Hirst, J.P.H., Tomlin, J. A.: Practical Solution of Large Mixed Integer Programming Problems with UMPIRE, Management Science, Vol. 20, Nr. 5, 1974, S. 736–773Google Scholar
  5. 5.
    Ein Überblick über in den 70er Jahren bestehende Systeme findet sich in: Land, A.H., Powell, S.: Computer codes for problems of Integer Programming, Annals of Discrete Mathematics, Vol. 5, 1979, S. 221–269Google Scholar
  6. 6.
    Steinicke, V., Seifert, O., Ohse, D.: Lineare Planungsmodelle im praktischen Einsatz, Frankfurt/Main 1973Google Scholar
  7. 7.
    In der betriebswirtschaftlichen Literatur findet sich dieser Trend schon in den 60er Jahren durch die Entwicklung von Simultanmodellen, die möglichst viele Teilbereiche zu erfassen suchen, um so die zwischen den einzelnen Teilbereichen bestehenden Interdependenzen berücksichtigen zu können.Google Scholar
  8. 8.
    Suhl, U.: Entwicklungstendenzen von mathematischer Optimierungs-Software, IBM Kongress ‘86, IBM Deutschland 1986, S. 13 f; Spielberg, K.: Entwicklungstendenzen in der Mathematischen Programmierung, IBM Kongress ‘88, IBM Deutschland 1988, S. 1Google Scholar
  9. 9.
    Brearley, A., Mitra, G., Williams, H.P.: Analysis of mathematical programming problems prior to applying the simplex method, Mathematical Programming, Vol. 8, 1975, S. 54–83; Guignard, M., Spielberg, K.: Logical Reduction Methods in Zero-One Programming (Minimal Preferred Variables), Operations Research, Vol. 29, Nr. 1, 1981, S. 49–74; Johnson, E.L., Kostreva, M.M., Suhl, U.H.: Solving 0–1 Integer Programming Problems arising from Large Scale Planning Models, Operations Research, Vol. 33, Nr. 4, 1985, S. 803–819; Suhl, U.H.: Solving Large-Scale Mixed-Integer Programs with Fixed-Charge Variables, Mathematical Programming, Vol. 32, 1985, S. 165–182; Martin, R.K., Schrage, L.: Subset Coefficient Reduction Cuts for 0/1 Mixed-Integer Programming, Operations Research, Vol. 33, Nr. 3, 1985, S. 505–526; Van Roy, T.J., Wolsey, L.A.: Solving Mixed Integer Programming Problems Using Automatic Reformulation, Operations Research, Vol. 35, Nr. 1, 1987, S. 45–57Google Scholar
  10. 10.
    Ein Überblick über die Ansätze bis etwa 1980 findet sich in: Fisher, M.L.: The Lagrangian Relaxation Method For Solving Integer Programming Problems, Management Science, Vol. 27, Nr. 1, 1981, S. 1–18Google Scholar
  11. 11.
    Karmarkar, N.: A New Polynomial Time Algorithm for Linear Programming, Combinatorica, Vol. 4, 1984, S. 373–395CrossRefGoogle Scholar
  12. 12.
    Suhl, U.: Entwicklungstendenzen von mathematischer Optimierungs-Software, a.a.O., S. 11Google Scholar
  13. 13.
    Suhl, U.H., Aittoniemi, L.: Computing Sparse LU-Factorizations for Large Scale Linear Programming Bases, Arbeitspapier Nr. 58/87, FU Berlin Fachbereich Wirtschaftswissenschaften 1987; Suhl, U.H.: Design and Implementation of a fast and portable LP-Optimizer, Operations Research Proceedings 1988, Berlin Heidelberg 1989, S. 165–173Google Scholar
  14. 14.
    So können z.B. von MPSX/370 Version 2 bis zu 32766 Nebenbedingungen verarbeitet werden.Google Scholar
  15. 15.
    Als Supercomputer werden allgemein die jeweils zu einem Betrachtungszeitpunkt schnellsten Rechner bezeichnet.Google Scholar
  16. 16.
    Megaflop (Mflop) = 106 Gleitkommaoperationen pro Sekunde, 1 Gigaflop (Gflop) = 109 kommaoperationen Gleit- pro Sekunde, 1 Teraflop (Tflop) = 1012 Gleitkommaoperationen pro SekundeGoogle Scholar
  17. 17.
    Mierzowski, K.: Vektorrechner liegen noch vom im Supercomputer-Markt, VDI nachrichten, Nr. 33, 14. August 1992, S. 10Google Scholar
  18. 18.
    Ein Vektor-Supercomputer ist ein speziell für die schnelle Verarbeitung von Vektoren entwickelter Rechner. Das hierbei verfolgte Fließbandprinzip wird im dritten Kapitel noch näher erläutert.Google Scholar
  19. 19.
    PC = Personal Computer; es handelt sich hierbei um einen auf die Anforderung eines Einzelbenutzers ausgerichteten Computer, bei dem der Benutzer frei über dessen Leistung verfügen kann. Eingesetzt werden Personal Computer für vielfältige Aufgaben im Büro sowie im wissenschaftlichen und technischen Bereich. Vgl. Müller, P., Löbel, G., Schmid, H.: Lexikon der Datenverarbeitung, B. Siemens-interne Aufl., Berlin München 1992, S. 493 fGoogle Scholar
  20. 20.
    Als Workstation wird eine Datenstation an einem Arbeitsplatz bezeichnet, die zum einen Datenverarbeitung “vor Ort” ermöglicht und zum anderen in der Regel über ein Netz Zugang zu zentralen Funktionen hat, die von einem sogenannten Server bereitgestellt werden. Vgl. Müller, P., Löbel, G., Schmid, H.: a.a.O., S. 47 und 172Google Scholar
  21. 21.
    LAN = Local Area Network; bei einem lokalen Netz handelt es sich um ein privates Netz, das innerhalb eines örtlich begrenzten Bereichs, z.B. eines Bürogebäudes, dem Datenaustausch zwischen den an dieses Netz angeschlossenen Einrichtungen, wie z.B. PCs und Workstations, dient. Vgl. Müller, P., Löbel, G., Schmid, H.: a.a.O., S. 370Google Scholar
  22. 22.
    Teetz, M.: Client Server-Computing, Mainframe-Denken obsolet, Personal Computer, Nr. 9, September 1992, S. 96–99, hier S. 96Google Scholar
  23. 23.
    ohne Autor: Kostendruck verändert die vorhandene DV-Landschaft, PC magazin, Nr. 34, 19. August 1992, S. 41–43, hier S. 43Google Scholar
  24. 24.
    Beispiele sind CPLEX 2.0 von CPLEX Optimization, Inc., XPRESS-MP von Dash Associates Ltd., MPSIII von Ketron Management Science, Inc. oder OSL von IBM.Google Scholar
  25. 25.
    Ashford, R.W., Daniel, R.C.: Some Lessons in Solving Practical Integer Programs, Journal of the Operational Research Society, Vol. 43, Nr. 5, 1992, S. 425–433Google Scholar
  26. 26.
    Forrest, J.J.H., Tomlin, J.A.: Vector Processing in Simplex and Interior Methods for Linear Programming, IBM Almaden Research Center, San Jose, CA 95120, 1988Google Scholar
  27. 27.
    Massiv parallele Systeme weisen eine sehr hohe Anzahl von Prozessoren auf, die unabhängig voneinander die verschiedensten Aufgaben ausführen können. Im Kapitel 3 wird hierauf ausführlich eingegangen.Google Scholar
  28. 28.
    Im folgenden werden die im Zusammenhang mit der sequentiellen Verarbeitung vorgestellten algorithmischen Möglichkeiten als Verfahrensvarianten und die im Zusammenhang mit der parallelen Verarbeitung vorgestellten algorithmischen Möglichkeiten als Parallelisierungsvarianten bezeichnet.Google Scholar

Copyright information

© Springer Fachmedien Wiesbaden 1994

Authors and Affiliations

  • Birgit Schwartz

There are no affiliations available

Personalised recommendations