Advertisement

Testen, Analysieren und Verifizieren von Software — eine klassifizierende Übersicht der Verfahren

  • Peter Liggesmeyer
Conference paper
Part of the Informatik aktuell book series (INFORMAT)

Zusammenfassung

Der Einsatz von Computern und Programmen dringt in immer weitere Bereiche ein, die steigende Anforderungen an die Zuverlässigkeit und Korrektheit der Computerlösung stellen. Ein Ausfall von Systemen in medizinischen Anwendungsbereichen oder in der Steuerung von Industrieanlagen stellt eine Gefahr für Leben und Gesundheit dar. Häufig ist mit dem Versagen ein finanzieller Verlust, immer jedoch Aufwand zur Wiederherstellung des Betriebs verbunden.

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Literatur

  1. 1.
    Clarke, L.A., Podgurski, A., Richardson, D.J., Zeil, S.J.: A Comparison of Data Flow Path Selection Criteria. In: Proceedings of the 8th International Conference on Software Engineering, 244–251. London 1985Google Scholar
  2. 2.
    Clarke, L.A., Podgurski, A, Richardson, D.J., Zeil, S.J.: A Formal Evaluation of Data Flow Path Selection Criteria. IEEE Transactions on Software Engineering 15(11), 1318–1332 (1989)CrossRefGoogle Scholar
  3. 3.
    Conte, S.D., Dunsmore, H.E., Shen V.Y., Software Engineering Metrics and Models. Menlo Park: Benjamin/Cummings 1986Google Scholar
  4. 4.
    DeMillo, R.A., Lipton, J.L., Sayward, F.G.: Program mutation: A new approach to program testing. In: Software Testing, Infotech State of the Art Report, Vol.2, 107–128. Maidenhead 1979Google Scholar
  5. 5.
    Floyd, R.W.: Assigning meanings to Programs. In: Proceedings of the American Mathematical Society Symposium in Applied Mathematics 19, 19–32. 1967Google Scholar
  6. 6.
    Fosdick, L.D., Osterweil, L.J.: Data Flow Analysis in Software Reliability. ACM Computing Surveys 8(3), 305–330 (1976)CrossRefMathSciNetzbMATHGoogle Scholar
  7. 7.
    Futschek G.: Programmentwicklung und Verifikation. Wien: Springer 1989zbMATHGoogle Scholar
  8. 8.
    Foster, K.A.: Comment on the application of error-sensitive testing strategies to debugging. ACM SIGSOFT Software Engineering Notes 8(5), 40–42 (1983)CrossRefGoogle Scholar
  9. 9.
    Gannon, C.: Error Detection Using Path Testing and Static Analysis. Computer 12(8), 26–31 (1979)CrossRefGoogle Scholar
  10. 10.
    Gelperin, D., Hetzel, B.: The Growth of Software Testing. Communications of the ACM 31(6), 687–695 (1988)CrossRefGoogle Scholar
  11. 11.
    Girgis, M.R., Woodward, M.R.: An Experimental Comparison of the Error Exposing Ability of Program Testing Criteria. In: Proceedings Workshop on Software Testing, 64–73. Banff 1986Google Scholar
  12. 12.
    Hamlet, R.G.: Theoretical Comparison of Testing Methods. In: Proceedings of the ACM SIGSOFT ’89 Third Symposium on Software Testing, Analysis, and Verification (TAV3), 28–37, Key West 1989Google Scholar
  13. 13.
    Halstead, M.H.: Elements of Software Science. New York: North-Holland 1977zbMATHGoogle Scholar
  14. 14.
    Haselhorst, R.: Der Software-Analyse-Baukasten — Ein Bericht aus der universitären Ausbildung. In: Informatik aktuell (vorliegender Band). Berlin: Springer (1992)Google Scholar
  15. 15.
    Hauptmann, K.: Abnahmetest großer Systeme — Methoden, Organisation und Werkzeuge. In: Informatik aktuell (vorliegender Band). Berlin: Springer (1992)Google Scholar
  16. 16.
    Herrmann, J., Grimm, K.: Klassifikation von Software-Testmethoden. In: Informatik aktuell (vorliegender Band). Berlin: Springer (1992)Google Scholar
  17. 17.
    Hoare, C.A.R.: An Axiomatic Basis for Computer Programming. Communications of the ACM 12(10), 576–583 (1969)CrossRefzbMATHGoogle Scholar
  18. 18.
    Hohlfeld, B.: Zur Verifikation von modular zerlegten Programmen. Dissertation, Universität Kaiserslautern, (1988).Google Scholar
  19. 19.
    Howden, W.E.: Theoretical and Empirical Studies of Program Testing. IEEE Transactions on Software Engineering SE-4(4), 293–298 (1978)CrossRefGoogle Scholar
  20. 20.
    Howden, W.E.: An Evaluation of the Effectiveness of Symbolic Testing. Software — Practice and Experience 8(4), 381–397 (1978)CrossRefzbMATHGoogle Scholar
  21. 21.
    Howden, W.E.: Completeness Criteria for Testing Elementary Program Functions. In: Proceedings of the 5th International Conference on Software Engineering, 235–243. San Diego 1981Google Scholar
  22. 22.
    Howden, W.E.: A Survey of static Analysis Methods. In: Tutorial: Software Testing and Validation Techniques, IEEE Computer Society Press, 101–115. New York 1981Google Scholar
  23. 23.
    King, J.C.: Symbolic execution and program testing. Communications of the ACM 19(7), 385–394 (1976)CrossRefzbMATHGoogle Scholar
  24. 24.
    Kneuper, R.: Validation und Verifikation von Software durch symbolische Ausfuhrung. In: Informatik aktuell (vorliegender Band). Berlin: Springer (1992)Google Scholar
  25. 25.
    Laski, J.W., Korel, B.: A Data Flow Oriented Program Testing Strategy. IEEE Transactions on Software Engineering SE-9(3), 347–354 (1983)CrossRefGoogle Scholar
  26. 26.
    Liggesmeyer, P.: Modultest und Modulverifikation — State of the Art. Mannheim, Wien, Zürich: BI Wissenschaftsverlag 1990zbMATHGoogle Scholar
  27. 27.
    Liggesmeyer, P.: TensorC, TensorM, TensorP — Werkzeuge zur Testunterstützung. In: Balzert, H. (ed.): CASE Systeme und Werkzeuge, 489–504. Mannheim, Wien, Zürich: BI Wissenschaftsverlag 1991Google Scholar
  28. 28.
    Liggesmeyer, P., Dregger, A., Balzert, H.: Ein experimentelles Testsystem für die Sprache HyperTalk. In: Informatik aktuell (vorliegender Band). Berlin: Springer (1992)Google Scholar
  29. 29.
    McCabe, T.J.: A Complexity Measure. IEEE Transactions on Software Engineering SE-2(4), 308–320 (1976)CrossRefMathSciNetGoogle Scholar
  30. 30.
    Müllerburg, M.: Zur Formalisierung von Testkonzepten. In: Informatik aktuell (vorliegender Band). Berlin: Springer (1992)Google Scholar
  31. 31.
    Myers, G.J.: The Art of Software-Testing, New York: John Wiley & Sons 1979Google Scholar
  32. 32.
    Ntafos, S.C.: On Required Element Testing. IEEE Transactions on Software Engineering SE-10(6), 795–803 (1984)CrossRefGoogle Scholar
  33. 33.
    Ntafos, S.C.: A Comparison of Some Structural Testing Strategies. IEEE Transactions on Software Engineering 14(6), 868–874 (1988)CrossRefGoogle Scholar
  34. 34.
    Offutt, A.J.: The Coupling Effect: Fact or Fiction?. In: Proceedings of the ACM SIG-SOFT ’89 Third Symposium on Software Testing, Analysis, and Verification (TAV3), 131–140, Key West 1989Google Scholar
  35. 35.
    Overbeck, J.: Test Activities for Object-Oriented Software Development. In: Informatik aktuell (vorliegender Band). Berlin: Springer (1992)Google Scholar
  36. 36.
    Pelkmann, U.: TESTSCOPE — Ein Werkzeug für den Modul- und Integrationstest. In: Informatik aktuell (vorliegender Band). Berlin: Springer (1992)Google Scholar
  37. 37.
    Rapps, S., Weyuker, E.J.: Selecting Software Test Data Using Data Flow Information. IEEE Transactions on Software Engineering SE-11(4), 367–375 (1985)Google Scholar
  38. 38.
    Schless, P.: Methoden und Werkzeuge zur Automatisierung des Software-Tests. In: Informatik aktuell (vorliegender Band). Berlin: Springer (1992)Google Scholar
  39. 39.
    Sneed, H.M.: Software-Testen. Stand der Technik. Informatik-Spektrum 11(6), 303–311 (1988)Google Scholar
  40. 40.
    Sneed, H.M.: The Micro Test Integrated Test Environment. In: Informatik aktuell (vorliegender Band). Berlin: Springer (1992)Google Scholar
  41. 41.
    Sorkowitz, A.R.: Certification Testing: A Procedure to Improve the Quality of Software Testing. Computer 12(8), 20–24 (1979)CrossRefGoogle Scholar
  42. 42.
    Spafford, E.H.: Extending Mutation Testing to Find Environmental Bugs. Software — Practice and Experience 20(2), 181–189 (1990)CrossRefGoogle Scholar
  43. 43.
    Spillner, A.: Testmethoden und Testdatengewinnung für den Integrationstest modularer Softwaresysteme. In: Informatik aktuell (vorliegender Band). Berlin: Springer (1992)Google Scholar
  44. 44.
    Weiss, S.N.: What To Compare When Comparing Test Data Adequacy Criteria. ACM SIGSOFT Software Engineering Notes 14(6), 42–49 (1989)CrossRefGoogle Scholar

Copyright information

© Springer-Verlag Berlin Heidelberg 1992

Authors and Affiliations

  • Peter Liggesmeyer
    • 1
  1. 1.Lehrstuhl für Software-TechnikRuhr-Universität BochumBochum 1Germany

Personalised recommendations