Zusammenfassung
Die ökonomische Beurteilung der Schadenprognose basiert auf zwei theoretischen Grundlagen:
-
der Rolle der Prognoseverfahren im Lenkungsinstrument „Informationsbeschaffung“, das den Informationsbeschaffungsprozeß eines Versicherungsunternehmens beschreibt, und
-
der Kosten/Nutzen-Analyse sowie den zugrundeliegenden entscheidungstheoretischen Erkenntnissen.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Preview
Unable to display preview. Download preview PDF.
Literatur
Vgl. Theil (1966), S. 1f., Weber (1990b), S. 6ff. und Brockhoff (1977), S. 16f.
Vgl. Weber (1990b), S. 7ff., Helten (1976), S. 443, Chambers/Mullick/Smith (1971), S. 45ff. und Schwarze (1973b), S. 330.
Vgl. Weber (1990b), S. 8, Sterk (1983), S. 234 und Holland/Schambacher (1991), S. 7f.
Vgl. Frerichs/Kübler (1980), S. 1.
Gängige Einteilungen des Prognosehorizonts reichen von [bis 3 Mon./bis 2 J./über 2 J.] bis [bis 1 J./bis 3 J./ über 3 J.]. Vgl. Weber (1990b), S. 3, Luder (1981), S. 290ff. und Brockhoff (1977), S. 20ff. und S. 40.
Vgl. Weber (1990b), S. 1 und Theil (1975), S. 4. Vgl. Weber (1990b), S. 1.
Vgl. Fischhoff (1994), S. 387ff., Helten (1981b), S. 338 und S. 363, Schwarze (1973b), S. 334 und Sterk (1983), S. 233ff.
Vgl. Helten (1981b), S. 336f., ders. (1976), S. 440ff., Schwebler (1970), S. 648, Armstrong (1978), S. 6 und MakridakislWheelwright (1977), S. 3f.
Vgl. Helten (1976), S. 443, Hüttner (1986), S. 1f., Luder (1981), S. 297, Armstrong (1978), S. 20f., Brockhoff (1977), S. 16 und zur “gegenwartsintensiven” Planung und Simulation Hogan (1973), S. 266ff.
Vgl. Brockhoff (1977), S. 16, Hühner (1986), S. 1 und Schwebler (1970), S. 648.
Vgl. Helten (1981b), S. 338 und Makridakis/Wheelwright (1977), S. 9f.
“Der Planungshorizont kann höchstens so weit in die Zukunft ausgedehnt werden, wie die Prognosequalität ausreicht, um die prognostizierten Ereignisse für die Auswahl der optimalen Handlungsalternative im ersten Zeitabschnitt der Planung noch von Bedeutung erscheinen zu lassen.” Brockhoff (1977), S. 20.
Vgl. Chambers/Mullick/Smith (1971), S. 46, Rockart (1979), S. 81ff., Frerichs/Kübler (1980), S. 2 und Remus/Simkin (1982), S. 506f.
Vgl. Makridakis/Wheelwright (1977), S. 4.
Für eine Vielzahl alternativer Einteilungskriterien vgl. Hüttner (1986), S. 4ff.
Für die Definitionen der Begriffe Objekt-, Verhaltens-und Finanzrisiko siehe Müller (1994).
Ansatzweise liegen diese vier Phasen vielen operativen Untersuchungen zugrunde, wie z.B. der Analyse der deutschen Feuer-Betriebsunterbrechungs-Statistik von Flach/Schlunz/Strauß (1971); vgl. weiterhin Neuburger (1983), Rhiel (1986), Pilzweger (1983), ders. (1984) und Albrecht (1981a).
Gerl/Roventa (1983) zeigen, wie der Markt allgemein weiter nach den klassischen Segmentierungskriterien - geographisch, demographisch, psychologisch (z.B. Lebensstil) und verhaltensorientiert (z.B. Kaufhäufigkeit) - gegliedert werden kann.
Vgl. Ansoff (1976), S. 129ff. und ders. (1984), S. 14ff.
Vgl. Hochstädter (1993), Sp. 3991. Als praktische Beispiele siehe Muth (1973) (Insolvenzversicherung) und Garbsch/Grabbe (1973) (Sterblichkeit).
Vgl. Abbildung II.1.
Wie z.B. die Portfolio-Methodik.
Vgl. Hammer (1992), S. 136 und ders. (1985), S. 168.
Vgl. Albrecht (1982), S. 501.
Vgl. Albrecht (1982), S. 507f. und Bauer (1985).
Vgl. Albrecht (1982b), S. 508ff. Conditio sine qua non aber ist, daß die dabei einfließende Hypothese - der Bestand an Versicherungsverträgen erfüllt die Voraussetzung - Gültigkeit besitzt. Die Gültigkeit der Hypothese kann vom Management auf einem bestimmten Sicherheitsniveau getestet werden oder wird vom Management für die dritte Voraussetzung durch eine gezielte Produktgestaltung und einen gezielten Verkauf realisiert.
Vgl. Albrecht (1982b), S. 523.
Vgl. Albrecht (1982b), S. 522, Fn.83.
Vgl. Albrecht (1982b), S.523f. und ders. (1987a), S. 96.
Identisch verteilte Zufallsgrößen.
Vgl. Hochstädter (1993), Sp. 3999.
Vgl. Hochstädter (1993), Sp. 3999. Ein hervorragendes, anwendungsbezogenes Basiswerk zu multivariaten Analysemethoden ist Backhaus/Erichson/Plinke/Weber (1994).
Es existieren keine Vorstellungen über Interdependenzen und Abhängigkeiten in dem Datenmaterial und das Ziel der Analyse besteht primär in der Entdeckung solcher Zusammenhänge zwischen den Variablen.
Die Faktorenanalyse versucht, eine größere Anzahl von beobachteten interdependenten Zufallsgrößen auf einige wenige signifikante, die Beobachtung explizierende unabhängige Faktoren zu reduzieren. Die Faktorenanalyse kann in einem Versicherungsunternehmen zur Bestimmung von unabhängigen Risikofaktoren aus einem gegebenen Datensatz angewendet werden. Wenn eine Struktur der Risikofaktoren aufgrund theoretischer Vorüberlegung a priori vorgegeben wird, die dann anhand des empirischen Datenmaterials überprüft wird, so spricht man von einer konfirmatorischen Faktoranalyse. Dahingegen versucht die exploratorische Faktorenanalyse, aus einem empirischen Datensatz die hypothetischen, möglichst voneinander unabhängigen Faktoren zu ermitteln.
Bei der Clusteranalyse wird im Gegensatz zur Diskriminanzanalyse eine Anzahl von Gruppen gesucht, die a priori unbekannt ist. Ziel der Clusteranalyse ist eine Klassifizierung des Datenmaterials in Gruppen, zwischen denen nur minimale Ähnlichkeiten existieren sollen, während die Übereinstimmung innerhalb der Gruppe maximal sein soll. Ein Beispiel für den Einsatz der Clusteranalyse bei Klassifikationsproblemen in der Versicherungswirtschaft liefert Dickmann (1978).
Die Verfahren der Multidimensionalen Skalierung untersuchen, wie Personen einzelne Merkmale oder Objekte subjektiv wahrnehmen und präferieren. Die Grundannahmen dieser Verfahren sind, daß erstens jedes Objekt spezielle Koordinaten in dem mehrdimensionalen Wahrnehmungsraum des Menschen besitzt, und daß zweitens die Objekte um so näher beieinanderliegen, je ähnlicher sie sich sind. Als Konfiguration wird die Gesamtheit der Punkte der Objekte im Wahrnehmungsraum bezeichnet. Die Zielsetzung der Verfahren stellt die Ermittlung der Koordinaten der Objekte aus generellen globalen Ähnlichkeitsurteilen und darauf aufbauend von Merkmalen (Achsen), die den Wahrnehmungsraum aufspannen, dar. Als Ergebnis solcher Verfahren enthält man Informationen über die Wahrnehmungswege und die Urteilsbildung der Person.
Vorstellungen über Interdependenzen und Abhängigkeiten in dem Datenmaterial existieren aufgrund sachlogischer und theoretischer Überlegungen, und das Ziel der Analyse besteht primär darin, diese Zusammenhänge zwischen den Variablen zu überprüfen.
Die Regressionsanalyse analysiert Abhängigkeiten und Unabhängigkeiten zwischen metrisch-skalierten Variablen, wobei die Einteilung in abhängige oder unabhängige Variable vor Beginn aufgrund sachlogischer Zusammenhänge eindeutig geklärt sein muß. Tröblinger (1977) benutzt z.B. die Regressionsanalyse zur Untersuchung der KH-Versicherung, und Albrecht (1981a) verwendet in einer theoretischen Analyse im Zusammenhang mit Poissonprozessen das Regressionsmodell.
Die Varianzanalyse analysiert die Abhängigkeiten (Einflüsse) von nominal-skalierten unabhängigen Variablen auf eine metrisch-skalierte abhängige Variable, wobei die Anzahl der unabhängigen Variablen beliebig ist. Untersuchungsaufgaben sind z.B. die Fragestellung, ob sich die Mittelwerte zweier Schadenkostenbeobachtungsreihen nur zufällig oder signifikant unterscheiden.
Die Diskriminanzanalyse untersucht die Abhängigkeiten von metrisch-skalierten unabhängigen Va5 riablen auf eine nominal-skalierte abhängige Variable. Die Diskriminanzanalyse kann nur eine Klassen-oder Gruppenzugehörigkeit von Objekten erklären, d.h. die Diskriminanzanalyse identifiziert Objekte einer vorgegebenen Teilmenge der Grundgesamtheit.
Die Kausalanalyse untersucht, ob theoretisch aufgestellte Abhängigkeitsverbindungen mit den empirischen Datenmaterialien übereinstimmen, wobei z.B. derLISREL-Ansatz (Linear Structural Relationships) von einer linearen Struktur der Abhängigkeiten zwischen den Variablen ausgeht.
Vgl. Hochstädter (1991), S. 283.
So z.B. Chambers/Mullick/Smith (1971), S. 49ff. und Aiso (1973), S. 188. Vgl. Becker (1981b), S. 10.
Vgl. Geschka/Hammer (1986), S. 238ff.
Vgl. Meyer-Schönherr (1992), S. 15.
Eine sehr einfache stationäre Szenario-Technik ist die Portfolio-Analyse, die im Rahmen der Literatur zum strategischen Management die seit 10 Jahren gängige Untersuchungsmethode darstellt. Vgl. Ansoff/Kirsch/Roventa (1981) und Hammer (1992). Bei der Portfolio-Analyse wird ein zweidimensionales Szenario in Form einer Positionierung des Versicherungsunternehmens im zweiten Quadraten des Koordinatensystems (910+ x 910+) erstellt, so daß zwei Faktoren wie z.B. Wettbewerbsposition und Marktattraktivität (als gängiges Beispiel in der Literatur, vgl. Ansoff/Kirsch/Roventa (1981), S. 977) explizit erfaßt werden. Implizit fließen in die Positionierung auch die anderen vorhandenen Informationen ein.
Vgl. Meyer-Schönherr (1992), S. 15.
Vgl. Berg (1992), Fama/MacBeth (1973), dies. (1974), Roll (1977), ders. (1978) und Fama/French (1992).
Vgl. Maneth (1995), S. 331ff.
Vgl. Feichtlinger/Kopel (1994), S. 7ff.
“Wenn in Korsika ein Schmetterling mit den Flügeln schlägt, kann deshalb später in Alaska ein Erdbeben ausbrechen.” Paulos (1992), S. 34.
Vgl. Helten (1973), S. 1, ders. (1987), S. 9ff. und Albrecht (1982b), S. 502.
Die Gültigkeit und Aussagekraft der gewonnenen Ergebnisse muß dann entsprechend den Modellannahmen relativiert werden. Diese können nicht als richtig oder falsch, sondern nur als fir das Problem zweckmäßig oder nicht beurteilt werden. Vgl. Helten (1975), S. 76f., Karten (1983), S. 215 und Albrecht (1982b), S. 503.
Vgl. Bachmann (1988), S. 35ff., Albrecht/Schwake (1988), S. 651f., Ammeter (1965), S. 406f., Kremer (1986), S. 1276 und ders. (1988), S. 671. Durch die Einführung von Strukturfunktionen wurde das Risikoverhalten von Individuen im Kollektiv beschreibbar und damit eine Synthese zwischen individueller und kollektiver Risikotheorie geschaffen. Diese Unterscheidung wird daher im weiteren nicht vorgenommen, vgl. Feilmeier/Bertram (1987), S. 13ff. und Bachmann (1988), S. 47ff. Vgl. hierzu außerdem Jaeger (1983), S. 173ff. und ders. (1984), S. 311 ff.
Vgl. Helten (1975), S. 83, ders. (1987), S. 43f. und Albrecht (1988), S. 820.
Vgl. Kremer (1986), S. 1276ff.
Zur Unterscheidung zwischen deterministischen, stochastischen und gemischten Modellen der Versicherungsmathematik vgl. Helten (1988a), S. 1078f., Neuburger (1971), S. 45ff. und Trux (1994), S. 69.
Vgl. Jaeger (1983), S. 173ff., ders. (1984), S. 311ff., Feilmeier/Bertram (1987), S. 56 und Helten (1991), S. 25ff.
Vgl. Helten (1975), S. 80, ders. (1981a), S. 6f., ders. (1985), S. 127f., Karten (1983), S. 221, Albrecht (1984b), S. 196ff. und o.V. (1992c). Zur Verdeutlichung der enormen modelltheoretischen Neuerungen und Weiterentwicklungen vgl. z.B. Ammeter (1965), S. 403ff.
Zur Risikoprämie und verschiedenen risikotheoretischen Prämienkalkulationsprinzipien vgl. Reich (1984), Goovaerts/Vylder/Haezendonck (1984), S. 92, Seal (1969), S. 49ff., Helten (1975), S. 85ff., ders. (1991), S. 66ff., Karten (1991), S. 113ff., Borch (1985), S. 192ff., Lippe (1984), S. 134ff., Kremer (1986), S. 1278, Albrecht/Lippe (1988), S. 529ff., Albrecht (1981b), S. 687ff. und Feilmeier/Bertram (1987), S. 17f.
So z.B. Farny: “Die Faktorkombination zur Versicherungsproduktion kann nur im Kollektiv wirtschaftlich sinnvoll durchgeführt werden(…).” Famy (1965), S. 12. Vgl. weiter Karten (1981a), S. 136, und Helten (1975), S. 85. Genauer stellt Albrecht die Bedeutung der empirischen, statistischen und mathematischen Gesetze der großen Zahl in seinen Arbeiten (1982b), (1984a), (1984b), (1986) (besonders S. 245ff.) und (1987a) heraus, während Lippe (1984), S. 136 die Bedeutung des Zentralen Grenzwertsatzes betont.
Vgl. Albrecht (1988), S. 821, Helten (1975), S. 83, Sterk (1983), S. 245 und Leiner (1989).
Allerdings sind noch einige, teilweise schwerwiegende Abstimmungsschwierigkeiten zwischen (Risiko-)Theorie und (Versicherungs-)Praxis zu konstatieren. Vgl. Helten (1985), S. 120 und Heilmann (1987b), S. 76f.
Vgl. Hitzig (1994), S. 288 und Helten (1988b), S. 10ff.
Ausschlaggebend dafür, daß die effiziente Handhabung der Versicherungstechnik bisher kaum praxisrelevant war, waren die ausgeprägte Aufsicht und die Wettbewerbsbeschränkungen auf dem deutschen Versicherungsmarkt. Die Versicherungstechnik war größtenteils nicht Wettbewerbskomponente, sondern wurde praktisch von allen Versicherungsunternehmen gemeinsam gestaltet.
Natürlich resultiert die Relevanz der Schadenkostenprognose letztlich erst aus der im Voraus zu treffenden Preisentscheidung. Würde dieser Preis erst nach Ablauf der Versicherungsperiode festgesetzt werden, so wäre eine Prognose der Schadenkosten fir Versicherungsunternehmen weitgehend bedeutungslos.
Jedoch kann im Rahmen dieser Arbeit auf Wechselwirkungen zwischen Schadenprognoseverfahren und anderen Instrumenten nicht eingegangen werden.
Dies sind vor allem die verschiedenen Verbände und Fachausschüsse der (insbesondere Rück-) Versicherungswirtschaft und das BAV. Vgl. Helten (1973), S. 129 und Albrecht (1988), S. 818ff.
Vgl. Albrecht/Lippe (1988), S. 528, Nickel-Waninger (1992), S. 76f. und S. 81f., Sticker (1982), S. 31ff., Bühlmann (1980), S. 332f. und Dickmann (1988), S. 375f.
Richtlinie 92/49/EWG des Rates vom 18. Juni 1992 zur Koordinierung der Rechts-und Verwaltungsvorschriften für die Direktversicherung (mit Ausnahme der Lebensversicherung) sowie zur Änderung der Richtlinien 73/239/EWG und 88/357/EWG (Dritte Richtlinie Schadenversicherung), in: Amtsblatt der EG, Nr. L 228/1 vom 11. August 1992; Richtlinie 92/96/EWG des Rates vom 10. November 1992 zur Koordinierung der Rechts-und Verwaltungsvorschriften für die Direktversicherung (Lebensversicherung) sowie zur Änderung der Richtlinien 79/267/EWG und 90/619/EWG (Dritte Richtlinie Lebensversicherung), in: Amtsblatt der EG, Nr. L 360/1 vom 9. Dezember 1992; Dritte Richtlinie 90/232/EWG des Rates vom 14. Mai 1990 zur Angleichung der Rechtsvorschriften der Mitgliedsstaaten über die Kraftfahrzeug-Haftpflichtversicherung, in: Amtsblatt der EG, Nr. L 129/33 vom 19. Mai 1990.
Vgl. allgemein zur Regulierung und Deregulierung in der deutschen Versicherungswirtschaft Eisen (1989).
Vgl. Heilmann (1994), S. 183, Janotta-Simons (1993), S. 30ff., Nickel-Waninger (1992), S. 81f. und o.V. (1993).
Vgl. Steinle/Eggers (1989), S. 691ff., Nickel-Waninger (1992), S. 77f. und S. 81f. und Porter (1990), S. 17ff.
Vgl. Seng (1989), S. 231f. Vgl. hierzu auch Helten (1992).
Vgl. Fischhoff(1994), S. 387ff.
Vgl. Eisen/Müller/Zweifel (1990), S. 71 und Müller (1991), S. 202. Zur Bedeutung effizienter unternehmerischer Entscheidungen für die (deutschen) Unternehmen im europäischen Versicherungsmarkt vgl. Eisen/Müller/Zweifel (1990), S. 35f. und S. 69ff. und dies. (1992), S. 24.
Vgl. Maneth (1996b), S. 403ff.
Die Prämienermittlung ist hierfür nur ein offensichtliches Beispiel: Prämienberechnung mit dem Versicherungs-CAPM bzw. der Optionspreistheorie (vgl. Cummins (1991)) oder mit dem Nullnutzen-oder dem Verlustfunktionen-Prinzip (vgl. Heilmann (1987)). Ein weiteres Beispiel sind Solvenzsicherungsmodelle (vgl. Maneth (1995)).
Die relationale Risikomessung wird als Risikopräferenz bzw. -einstellung bezeichnet.
Vgl. Helten (1994), S. 21ff.
Vgl. Heilmann (1987).
Vgl. Beard/Pentikäinen/Pesonen (1984), Heilmann (1987) und Kremer (1988). 2 Vgl. Heilmann (1987).
Vgl. Albrecht (1992), S. 3ff.
Vgl. Maneth (1996), S. 419ff.
Vgl. Mag (1990), S. 1.
Vgl. Hirshleifer/Riley (1992), S. 1.
Vgl. Weber (1990), S. 23ff.
Vgl. Kürsten (1992a). Eine intensive Diskussion (Sarin (1982), Wilhelm (1986), Kürsten (1992a), ders. (1992b) u.a.) hat gezeigt, daß die Risiko-und Wertvorstellungen im Nutzenkalkül untrennbar miteinander verbunden sind.
Die Risikopräferenz stellt einen Vergleich der Verteilungen hinsichtlich deren relativen Vorteilhaftigkeit dar (mathematisch: vollständige Ordnung auf der Menge der Ergebnisverteilungen).
Vgl. Mag (1990), S. 164:
In der Menge der Handlungsalternativen, d.h. in einer Vermehrung oder Verminderung der Handlungsalternativen
im Zustandsraum (S2, go), d.h. in einer Vermehrung oder Verminderung der Umweltzustände
im Wahrscheinlichkeitsmaß P, d.h. in einer Revision des Wahrscheinlichkeitsmaßes, und
im Ergebnisraum, d.h. in einer Präzisierung der Zufallsgrößen Xi.
Vgl. Laux (1992).
D.h.: Kann die Präferenz des Entscheiders, die durch die relationale Risikomessung operationalisiert wird, in zwei funktional verbundene Komponenten (Wert und Risikomaß) zerlegt werden, so daß mit dem spezifizierten Risikomaß die Risikoveränderung durch zusätzliche Informationen direkt quantifiziert werden kann?
Vgl. Markowitz (1959), Schneeweiß (1967), Baron (1977) und Weber (1990).
Vgl. Eisenfihr/Weber (1993), S. 218.
Ein kurzer Überblick über die Verallgemeinerungen der SEU-Theorie: Modelle mit separierbarer Nutzenfunktion: SU(HA) = J u(X;) dw(P) wobei w eine Gewichtungsfunktion für das Wahrscheinlichkeitsmaß P ist.
Handa (1977), Kahnemanlrversky (1979), wobei die von Kahneman/Tversky entwickelte Prospect-Theorie z.Zt. am stärksten diskutiert wird, da sie die meisten bekannten Paradoxa erklären kann; Rangplatzabhängige Nutzentheorien, Quiggin (1982) und ders. (1987); Gewichtete Nutzentheorien: W EU(HA;) = J w (Xi) u(X) dP/J w (X)dP wobei w eine zusätzliche Gewichtungsfunktion fair Ergebnisse X; ist, Fishbum (1983); Disappointment/Elation-Theorien, Loomes/Sudgen (1986), Bell (1985); weitere Ansätze modellieren ein abgeschwächtes Transitivitätsaxiom oder den Ambiguitätseffekt.
Vgl. Weber (1990), S. 164.
Vgl. Loomes/Sudgen (1986) und Bell (1985).
Vgl. Weber (1990), S. 165.
k und c sind Präferenzparameter.
Vgl. Laux (1991), S. 3ff. und S. 13ff. und Bitz (1975), S. 522.
Vgl. Laux (1991), S. 7ff. und S. 21ff. und Obermeier (1977), S. 9.
Vgl. Obermeier (1977), S. 45.
Vgl. Laux (1991), S. 4 und Obermeier (1977), S. 45.
Vgl. zum betriebswirtschaftlichen Nutzenbegriff Obermeier (1977), S. 69ff.
Vgl. Obermeier (1977), S. 13 und Wenz (1992), S. 3.
Vgl. Bitz (1975), S. 522.
Vgl. Obermeier (1977), S. 48ff. und Pentikäinen (1975), S. 30.
Vgl. Obermeier (1977), S. 63ff.
Vgl. zur Nutzenmessung Obermeier (1977), S. 78ff.
Vgl. Obermeier (1977), S. 5 und S. 69.
Vgl. Sterk (1983), S. 232, Albrecht (1988), S. 817ff. und zur Stichprobentheorie Leiner (1989), S. 15ff. Für eine ausführliche Erläuterung der deskriptiven Statistik wird auf die umfangreiche Literatur zu diesem Thema verwiesen. Stellvertretend sei genannt Hochstädter (1989), S. Off.
Jede Informationsverdichtung durch Zusammenfassung bedeutet zwangsläufig auch Informationsverlust. Im Aggregieren (“Poolen”) liegt eine der häufigsten Fehlerquellen bei statistischen Auswertungen. Vgl. Heilmann (1987b), S. 86.
Vgl. Weber (1990b), S. 12 und Albrecht (1988), S. 815.
Vgl. Weber (1990b), S. 12. Zur theoretischen Bedeutung möglichst homogener Klassen und einer Beispielrechnung anhand empirischen Datenmaterials vgl. Elton/Gruber (1971), S. 432ff.
Vgl. Helten (1981b), S. 361, Holland/Schambacher (1991), S. 9ff. und Hochstädter (1989), S. 10.
Vgl. Sterk (1983), S. 237 und zu Stichprobenauswahlverfahren (z.B. einfaches, geschichtetes, mehrstufiges oder Klumpen-Stichprobenverfahren) Hochstädter (1989), S. 259ff. und Brockhoff (1977), S. 67ff.
Vgl. zum Einsatz der Cluster-Analyse in der Versicherungswirtschaft Dickmann (1978).
Vgl. Kaufmann/Pape (1984), S. 371, deren Arbeit die Cluster-Analyse sehr detailliert darstellt und untersucht. Ähnliche Ansätze werden in den “Bayesschen Techniken” verwendet, auf die bereits in Hogan (1973), S. 266 hingewiesen wurde.
Vgl. Weber (1990b), S. 12f. und Helten (1981b), S. 361ff.
Vgl. Leiner (1986), S. 3.
Vgl. Helten (1973), S. 9, ders. (1991), S. 13f., Karten (1991), S. 90fi., Dickmann (1988), S. 373 und Maneth (1996b), S. 434ff.
Vgl. Albrecht/Lippe (1988), S. 528. Bei der Identifikation von Risikofaktoren werden hauptsächlich Verfahren der Regressionsanalyse (z.B. F-Test und Likelihood-Quotienten-Test) und der Diskrinúnanzanalyse angewendet. Vgl. Albrecht (1988), S. 822.
Vgl. Helten (1973), S. 128f. und o.V. (1994).
Vgl. Helten (1991), S. 14.
Vgl. Helten (1988a), S. 1078, Elton/Gruber (1971), S. 433, Sticker (1982), S. 34, Albrecht (1981b), S. 688f. und Albrecht/Lippe (1988), S. 528f.
Vgl. Helten (1973), S. 17, Helten/Sterk (1976), S. 114f. und Albrecht (1988), S. 821. Schaden-und Versicherungsfall sowie Schaden-und Entschädigungssumme werden hier gleichbedeutend verwendet. Vgl. Helten (1991), S. 14.
Für Einzelheiten hierzu wird auf statistische Methodenlehrbücher verwiesen. Vgl. stellvertretend Hochstädter (1989), S. 13ff. und Holland/Schambacher (1991), S. 19ff. Vgl. speziell für die deskriptive Versicherungsstatistik Albrecht (1988), S. 817f.
Vgl. Helten (1991), S. 24, Bühlmann (1980), S. 329f., Sticker (1982), S. 30 und Heilmann (1988), S. 756f.
Vgl. Helten (1991), S. 22 und Albrecht/Lippe (1988), S. 528. Eine solche Informationsverdichtung kann aber auch sehr riskant sein, wie Helten/Sterk anhand mehrerer Beispiele zeigten. Durch die Abschätzung von Teilgrößen mit anschließender Summierung der Schätzwerte ließen sich deutlich genauere Ergebnisse erzielen als bei direkter Abschätzung der Gesamtgröße. Vgl. Helten/Sterk (1976), S. 116ff. und Mintrop (1972), S. 306f.
Helten (1973), S. 7. Vgl. zu den konstituierenden Bedingungen eines (versicherungstechnischen) Zufallsexperiments und dem Grad der Erfüllung dieser Bedingungen in der Praxis Helten (1973), S. 7ff.
Vgl. zu Kap. 2.1.1.2 und Kap. 2.1.1.3 Helten (1973), S. 17ff. und ders. (1991), S. 12ff. Vgl. Kreyszig (1991), S. 60ff., Basler (1989), S. 7f. und Schutt (1981), S. 20ff.
Vgl. Helten (1987), S. 10ff.
Auf verteilungsfreie Ansätze wird nicht näher eingegangen. Vgl. hierzu Feilmeier/Bertram (1987), S. 33.
Vgl. Helten (1973), S. 17f. und Tröbliger (1975), S. 6f. In der Regel werden aus Gründen der Aktualität der Daten zunächst die angemeldeten Schadensummen erfaßt. In diesen Fällen muß später anhand endgültiger Schadendaten eine Fehlerkorrektur stattfinden. Vgl. Helten/Kürble (1982), S. 446f.
Diese Annahme dient der Vereinfachung der statistischen Analyse von empirischen Verteilungen. Vgl. Feilmeier/Bertram (1987), S. 24ff. und Helten/Sterk (1976), S. 113.
Die Dichtefunktion selbst darf nicht als Wahrscheinlichkeit interpretiert werden, da sie auch Werte über 1 annehmen kann und damit dem Nomùerungsaxiom widerspricht. Vgl. Helten (1987), S. 13f.
Vgl. zur Aufspaltung der Gesamtschadenverteilung in die Schadenzahl-und Schadensummenverteilung Helten/Sterk (1976), S. 115. Vgl. außerdem o.V. (1992c).
Vgl. Basler (1979), S. 74f.
Auf die theoretischen Eigenschaften und speziellen Charakteristika der einzelnen Verteilungstypen kann hier nicht näher eingegangen werden. Damit jedoch zumindest eine grobe Orientierung möglich ist, sind im Anhang (Abbildung A.1- A.12) die Wahrscheinlichkeitsfunktionen der wichtigsten diskreten und die Dichtefunktionen der wichtigsten stetigen Verteilungen für jeweils aussagekräftige Verteilungsparameter graphisch dargestellt.
Vgl. Schwarze (1973b), S. 332, Kreyszig (1991), S. 4, Chossy/Rappl (1983), S. 251ff., FeilmeierBertram (1987), S. 20, Helten/Sterk (1976), S. 113 und zu den methodologischen Problemen der Schließenden Statistik Helten (1973), S. 23ff.
Quelle: Helten (1973), S. 46. Vgl. auch die ähnliche Darstellung bei Eichhorn (1978), S. 589, in der zusätzlich ein zum Erwartungswert nicht symmetrisches 95%-Konfidenzintervall berücksichtigt wurde.
Vgl. zum Poissonprozeß und zur Poissonverteilung Buchner (1983), Helten (1991), S. 36f., Philipson (1962), S. 445f. und ders. (1970), S. 328f.
Vgl. Helten (1991), S. 37ff., ders. (1987), S. 32ff., Kupper (1971), S. 279ff., Oschwald (1984), S. 105ff., o.V. (1992b), o.V. (1994) und Weba (1994), S. 313. Vgl. für eine umfassende Übersicht der versicherungsmathematisch wichtigsten Verteilungen und deren Anwendung zur Abbildung der asymptotischen Verteilung des Schadenbedarfs Jaeger (1984), S. 311ff. und der Schadenzahl ders. (1983), S. 173ff. Besonders anschaulich wird dort dargestellt, unter welchen Voraussetzungen welche Verteilungen geeignet sind oder sich gegebenenfalls durch andere Verteilungen approximieren lassen. Vgl. auch die Übersicht der wahrscheinlichkeitstheoretischen Schadenzahl-und Schadenhöhemodelle bei Kupper (1962), ders. (1963), Feilmeier/Bertram (1987), S. 24ff. und Helten/Sterk (1976), S. 114ff.
Vgl. Helten (1987), S. 15 und S. 36, Rhiel (1986), S. 330ff. und Pilzweger (1984), S. 423ff.
Vgl. Helten (1987), S. 36f., Benktander (1970), S. 307ff. und Helten/Sterk (1976), 113ff.
Zusätzlich tritt dabei als Schwierigkeit auf, daß durch die Festlegung des wahrscheinlichen/möglichen Höchstschadens (probable/possible maximum loss) der bei fast allen Verteilungen bis unendlich reichende Defmitionsbereich eingeschränkt werden muß. Vgl. Helten (1987), S. 37. Entsprechende Überlegungen gelten auch für die linke Grenze des Defmitionsbereichs, da in der Praxis Bagatellschäden häufig vom Versicherungsnehmer selbst getragen werden, um Vorteile aus einem schadenfreien Versicherungsverlauf (z.B. anteilige Prämienrückgewährung oder günstigere Tarifierung) realisieren zu können (“Bonushunger”). Vgl. Helten (1991), S. 41.
Vgl. Helten (1981a), S. 8, Helten/Sterk (1976), S. 115 und o.V. (1992b).
Vgl. Helten (1987), S. 37, ders. (1991), S. 42ff. und Bühlmann (1980), S. 328.
Vgl. Helten (1987), S. 38f., ders. (1991), S. 46f., Oschwald (1984), S. 105ff. und Bühlmann (1980), S. 328. Zu Approximationen von Gesamtschadenverteilungen vgl. Seal (1969), S. 4ff., Weba (1994), S. 313ff., Bertram (1981), S. 175ff. und Kremer (1988), S. 673.
Vgl. Seal (1969), S. 135ff.
Vgl. Helten (1987), S. 39f., ders. (1991), S. 48f. und o.V. (1994).
Vgl. Helten (1977a), S. 1213f. und ders. (1987), S. 40f.
Vgl. Albrecht (1988), S. 817, Schwarze (1973b), S. 332, Helten (1985), S. 119 und Trux (1994), S. 69.
Vgl. zur Oberpriifung der Hypothesen und Modelle in verschiedenen Versicherungszweigen Jung (1980), S. 201ff.
Vgl. Helten (1973), S. 129, ders. (1981a), S. 9f. und ders. (1985), S. 122ff.
Vgl. Heilmann (1988), S. 754.
Vgl. zu den Anwendungen der modellierten Verteilungen im Rahmen der Versicherungstechnik Hel-ten (1991), S. 59ff., Helten/Sterk (1976), S. 114ff. und am Beispiel der KH-Versicherung Tröbliger (1975), S. 9ff. und S. 207ff.
Vgl. Helten (1987), S. 19f.
Vgl. Heilmann (1988), S. 754 und Holland/Schambacher (1991), S. 51.
Vgl. Helten/Sterk (1976), S. 115f. Eine Ausnahme stellt der Fall dar, daß man das Vorliegen einer normalverteilten Zufallsvariablen voraussetzen kann. Eine Normalverteilung ist durch die Angabe von Mittelwert und Varianz vollständig bestimmt.
Vgl. Albrecht (1988), S. 815.
Vgl. zu Kap. 2.1.2.1 Helten (1973), S. 122ff. Es wird hiermit darauf hingewiesen, daß auf die Kennzeichnung sinngemäßer Zitate aus dieser Quelle, aus der auch die jeweiligen Formeln stammen, verzichtet wurde.
Vgl. Hochstädter (1989), S. 418.
Vgl. Hochstädter (1989), S. 418f.
Vgl. Hochstädter (1989), S. 303.
Vgl. Schutt (1981), S. 56.
Vgl. Helten (1973), S. 149 und S. 154.
Vgl. Helten (1973), S. 154.
Vgl. beispielsweise Hochstädter (1989), S. 424ff.
Vgl. Schwarze (1973b), S. 333f.
Vgl. Albrecht (1988), S. 820.
Allerdings lassen sich nur entweder die Intervallgrenzen oder die Ergebniswahrscheinlichkeit vorgeben, aber nicht beides gleichzeitig. Vgl. Albrecht (1988), S. 820 und Helten/Sterk (1976), S. 118.
Vgl. Heilmann (1987b), S. 79f.
“Hinreichend groß” kann nicht näher präzisiert werden, worin sich die Kritik am Konsistenzbegriff begründet.
Vgl. Albrecht (1982b), S. 501–514 und Basler (1979), S. 73ff.
Vgl. Helten (1991), S. 54.
Vgl. zu Kap. 2.1.3. Helten (1973), S. 155ff. Es wird hiermit darauf hingewiesen, daß auf die Kennzeichnung sinngemäßer Zitate aus dieser Quelle verzichtet wurde.
Vgl. Schutt (1981), S. 47f.
Vgl. Heilmann (1987b), S. 84f.
Vgl. Helten/Sterk (1976), S. 117.
Vgl. Heilmann (1987b), S. 85.
Vgl. Dawes/Fildes/Lawrence/Ord (1994), Schmitz (1989), S. 220 und Naeve (1980), S. 246f.
Vgl. Helten (1981b), S. 347 und Wolters (1981), S. 13.
Vgl. Hansmann (1980a), S. 17 und Bruckmann (1977b), S. 46f. Für die Behandlung nichtstationärer Zeitreihen sind die klassischen analytischen Verfahren völlig ungeeignet, weil sie systematisch verzerrte Schätzwerte liefern. Vgl. Brockhoff (1977), S. 94.
Vgl. Makridakis/Wheelwright (1977), S. 17.
Vgl. Hochstädter (1989), S. 213.
Vgl. Holland/Schambacher (1991), S. 73 und Hochstädter (1989), S. 213. Zur Abgrenzung einer Zeitreihe in der modernen Zeitreihenanalyse vgl. Kap. 2.2.4.
Vgl. Hochstädter (1989), S. 213 und Wolters (1981), S. 13.
Vgl. Holland/Schambacher (1991), S. 73–74 und Leiner (1986), S. 5f. Trend und Zyklus werden häufig zu einer glatten Komponente (G) zusammengefaßt, da eine exakte Trennung selten möglich ist.
Vgl. Sticker/Kuon (1988), S. 575ff, Wolters (1981), S. 14 und Hochstädter (1989), S. 214.
Vgl. Hochstädter (1989), S. 214f., Sticker/Kuon (1988), S. 576 und Wolters (1981), S. 14. Additive und gleichzeitig multiplikative Verknüpfungen können zwar ebenfalls auftreten, können hier aber nicht berücksichtigt werden.
Vgl. Leiner (1986), S. 6f. und Helten (1981b), S. 347.
Vgl. Holland/Schambacher (1991), S. 75 und Hochstädter (1989), S. 213.
Vgl. Leiner (1986), S. 8 und Schmitz (1989), S. 20ff.
Vgl. Bruckmann (1977b).
Vgl. Hochstädter (1989), S. 219.
Vgl. Helten (1981b), S. 347.
Vgl. Helten (198 lb), S. 347.
Vgl. Hochstädter (1989), S. 224.
Vgl. Hochstädter (1989), S. 224 und Schröder (1994), S. 17.
Vgl. Hochstädter (1989), S. 225ff. und Schröder (1994), S. 18.
Vgl. Hochstädter (1989), S. 225.
Vgl. Schröder (1994), S. 18.
Vgl. Schröder (1994), S. 18.
Die gesamten Gewichtungsfaktoren werden auf Eins normiert, die einzelnen Gewichte müssen dabei nicht notwendigerweise alle positiv sein. Vgl. Hochstädter (1989), S. 229.
Vgl. Leiner (1986), S. 19 und Schröder (1994), S. 18.
Quelle: Schröder (1994), S. 19.
Vgl. Brown/Meyer (1961), S. 673f. Sehr anschaulich erscheint auch der Begriff “discounting past information” (Smith (1974), S. 421).
Vgl. Smith (1974), S. 421.
Vgl. Newbold/Granger (1974), S. 134, Brown/Meyer (1961), S. 673ff., Leiner (1986), S. 125 und Hansetann (1980a), S. 17.
Vgl. Hansmann (1983), S. 28, Schröder (1994), S. 20ff., Sticker/Kuon (1988), S. 577 und Winters (1960), S. 325. Der Glättungswert kt entspricht der Prognose für die Periode t+1.
Vgl. Sticker/Kuon (1988), S. 578, Chow (1965), S. 314, Hansmann (1983), S. 28 und Brown (1963), S. 177.
Vgl. Leiner (1986), S. 126f., Sticker/Kuon (1988), S. 577, Schröder (1994), S. 21ff. und Smith (1974), S. 421.
Vgl. Hansmann (1980a), S. 21 und Naeve (1980), S. 248.
Vgl. Hüttner (1982), S. 99, Naeve (1980), S. 248 und Schröder (1994), S. 23.
Im weiteren wird nur auf die für praktische Anwendungen hauptsächlich relevanten linearen Trendmodelle eingegangen. Zu nichtlinearen Modellen vgl. de Gooijer/Kumar (1992), S. 135ff.
Vgl. Sticker/Kuon (1988), S. 578 und Hansmann (1980b), S. 323.
Vgl. Hansmann (1983), S. 33ff.
Vgl. Hansmann (1983), S. 35.
Vgl. Box/Jenkins (1962), S. 297ff., Brockhoff (1977), S. 97, Smith (1974), S. 421 und Schröder (1994), S. 30ff.
Vgl. zu weiteren Ansätzen Trigg (1964), Trigg/Leach (1967), Brown (1963) und Cox (1961). Die ersten drei Ansätze wurden in Smith (1974), S. 422ff. zusammengefaßt und durch die Anwendung auf zehn künstlich erzeugte Datenreihen gegenüber zwei Versionen des Verfahrens von Chow und der Methode von Smith getestet. Weitere Methoden werden bei Griese/Eckardt (1994), S. 93ff. vergleichend vorgestellt.
Vgl. zu einer ausführlichen Darstellung des Verfahrens Chow (1965), S. 314ff. Vgl. außerdem Hans-mann (1980b), S. 378f., ders. (1983), S. 40f., Smith (1974), S. 422 und Griese/Eckardt (1994), S. 93f.
Vgl. Smith (1974), S. 429f.
Vgl. Smith (1974), S. 424 und Griese/Eckardt (1994), S. 95.
Vgl. Griese/Eckardt (1994), S. 95f. und Smith (1974), S. 423f. und S. 430f. Vgl. Hansmann (1983), S. 44f. und Leiner (1986), S. 127.
Dann müßte man zur multiplen Regressionsanalyse übergehen. Vgl. Hansmann (1980b), S. 377f.
Die Grundlage hierfür bildet das Fundamentaltheorem der exponentiellen Glättung von Brown und die darin geführten Beweise. Vgl. Brown/Meyer (1961), S. 673ff. und Brown (1963), S. 132ff.
Vgl. Hansmann (1983), S. 43f.
Vgl. Hansmann (1983), S. 43f. und Hüttner (1982), S. 107.
Vgl. z.B. zur Census-II-X-11-Methode mit regressiven dummy-Variablen Armstrong (1978), S. 148.
Vgl. Leiner (1986), S. 54ff. und Hansmann (1983), S. 46.
Vgl. Winters (1960), S. 326ff., Leiner (1986), S. 54ff., Brockhoff (1977), S. 99ff., Chambers/Mullick/Smith (1971), S. 71f. und Hansmann (1983), S. 46 sowie die dort genannte Literatur.
Zur Bestimmung der Saisonindexziffem mit dem Phasendurchschnittsverfahren bei additiver bzw. dem Gliedziffernverfahren von Person bei multiplikativer Komponentenverknüpfung vgl. Hochstädter (1989), S. 238ff.
Vgl. Hochstädter (1989), S. 236.
Das Verfahren kann selbstverständlich auch auf Wochen-oder Tagesbasis übertragen werden, wenn sachliche Gründe dies erfordern. Vgl. Sticker/Kuon (1988), S. 576. Auf variable Saisonfiguren, d.h. dynamische Entwicklungen der Saisonindizes, kann hier nicht eingegangen werden.
Vgl. Sticker/Kuon (1988), S. 576.
Vgl. Winters (1960), S. 324ff., Makridakis/Wheelwright (1977), S. 46ff. und zur Prognoseformel, dem Grundwert und den Trend-und Saisonfaktoren Schläger (1994), S. 42ff.
Vgl. Winters (1960), S. 326 und S. 342 und Newbold/Granger (1974), S. 134.
Vgl. Hansmann (1983), S. 52f. und Newbold/Granger (1974), S. 134. Auch wird die ungenügende theoretische Fundierung des Verfahrens kritisiert, vgl. Brockhoff (1977), S. 99, Fn. 5.
Vgl. Hansmann (1983), S. 125.
Vgl. Hansmann (1983), S. 125.
Vgl. Chambers/Mullick/Smith (1971), S. 50.
Vgl. Hansmann (1983), S. 125.
Vgl. Schneeberger (1994), S. 101f.
Vgl. Sticker/Kuon (1988), S. 576 und Hüttner (1986), S. 78.
entspricht hier, da nur auf metrische Daten abgestellt wird, dem MaBkorrelationskoeffizient von Bravais-Pearson. Vgl. Hüttner (1986), S. 80 und Niederhübner (1994), S. 206.
Vgl. Niederhübner (1994), S. 206, wo Grenzen für r angegeben werden, innerhalb derer die Aussagen als signifikant gelten können.
Vgl. Hüttner (1986), S. 81 und Fahrmeir/Kaufmann/Kredler (1984), S. 99f. Vgl. Hochstädter (1989), S. 108.
Vgl. Hansmann (1983), S. 131.
Vgl. Hüttner (1986), S. 82.
Vgl. Hansetann (1983), S. 126.
Vgl. Hansmann (1983), S. 126.
Vgl. Hansmann (1983), S. 126f.
Vgl. Niederhübner (1994), S. 207.
Vgl. Schneeberger (1994), S. 102f. und Hansmann (1983), S. 128f.
Vgl. Hansetann (1983), S. 129f.
Vgl. Hüttner (1986), S. 86, Hansmann (1983), S. 130f. und Fahrmeir/Kaufmann/Kredler (1984), S. 99f.
Vgl. Hansetann (1983), S. 131f.
Vgl. Hansmann (1983), S. 131f. Den genannten Problemen kann man teilweise durch die Berechnung des sogenannten bereinigten Bestimmtheitsmaßes begegnen. Vgl. Hüttner (1986), S. 86.
Vgl. Hüttner (1986), S. 86f.
Vgl. Niederhübner (1994), S. 207f., Armstrong (1978), S. 201ff. und Hansmann (1983), S. 135f.
Vgl. Armstrong (1978), S. 201ff., Hansmann (1983), S. 135ff. und Schneeberger (1994), S. 109f.
Vgl. Hansmann (1983), S. 137.
Vgl. Hansmann (1983), S. 137.
Vgl. Armstrong (1978), S. 204.
Vgl. zu dieser Zusammenfassung Hansmann (1983), S. 140.
Vgl. Niederhübner (1994), S. 207.
Vgl. Hüttner (1986), S. 88ff., Fahrmeir/Kaufmann/Kredler (1984), S. 83ff. und Schneeberger (1994), S. 106ff.
Ebenfalls dieser Klasse von Prognosemethoden zuzuordnen ist die Bayessche Vektor-Autoregression, auf die aber hier nicht näher eingegangen wird. Vgl. ausführlich zu diesem Ansatz Queen/Smith/James (1994), S. 209ff., Spencer (1993), S. 407ff., Alba (1993), S. 96ff., Litterman (1986), S. 25ff. und ders. (1980).
Vgl. zur Klasse der stationären stochastischen Prozesse Box/Jenkins (1970), S. 26ff. und Mohr (1976), S. 6ff. Die vorliegende Betrachtung bezieht sich zunächst auf schwach stationäre Prozesse und wird später auf nichtstationäre Prozesse erweitert.
Vgl. Sticker/Kuon (1988), S. 578, Naeve (1980), S. 249 und Merz (1980), S. 47ff.
Vgl. Wolters (1981), S. 15.
Vgl. Newbold/Granger (1974), S. 134f.
Vgl. Hansmann (1983), S. 63 und Hansen (1994), S. 235ff.
Vgl. Mohr (1980), S. 2, TiaoBox/Hamming (1975), S. 265, Leiner (1986), S. 68f., Deistler/Neusser (1994), S. 262f. und Schmitz (1989), S. 43f.
Hansmann (1983), S. 63.
Allgemein bezeichnet ein Filter in diesem Zusammenhang eine Transfonnationsvorschrift zur Überführung einer Input-in eine Output-Reihe. Vgl. Leiner (1986), S. 69f. Mohr (1976), S. 22ff. und Hansen (1994), S. 229.
Vgl. Leiner (1986), S. 72f. und Hansmann (1983), S. 64.
Vgl. Hansmann (1983), S. 64.
Vgl. Newbold/Granger (1974), S. 132 und Hansmann (1983), S. 64.
Vgl. Hansmann (1983), S. 65.
Vgl. hierzu das Ablaufschema bei Mohr (1980), S. 3.
Vgl. z.B. Hansmann (1983), S.65ff., Leiner (1986), S. 67ff., Makridakis/Wheelwright (1977), S. 131f, O’Donovan (1983), Pankratz (1983), Newbold/Granger (1974), S. 133 und S. 137ff. und, formal sehr detailliert, Mohr (1976). Zu den folgenden Ausführungen werden jeweils die entsprechenden Abschnitte in Box/Jenkins (1970) angegeben.
Vgl. Mohr (1980), S. 1 und Fischer (1980), S. 196.
Vgl. zu den AR(p)-Prozessen Box/Jenkins (1970), S. 53ff. und Mohr (1976), S. 52ff.
Vgl. Leiner (1986), S. 83 und Hansmann (1983), S. 65. Bei praktischen Anwendung konnte man mit Stützbereichen von 13 (bei kürzeren Reihen) bzw. 25 Monatsperioden (bei längeren Reihen) zufriedenstellende Ergebnisse erzielen. Vgl. Newbold/Granger (1974), S. 135.
Durch Einführung eines sogenannten Rückwärtsverschiebungsoperators B kann die formale Darstellung etwas verkürzt werden. Vgl. Mohr (1989), S. lf.
Vgl. Schmitz (1989), S. 45 und Sticker/Kuon (1988), S. 578.
Vgl. zu den MA(q)-Prozessen Box/Jenkins (1970), S. 67ff. und Mohr (1976), S. 44ff.
Vgl. zur Wahl der Vorzeichen des rechten Terms Hansmann (1983), S. 69, Fn. 1, da diese Darstellung von der anderer Autoren abweicht.
Vgl. Leiner (1986), S. 83 und Hansmann (1983), S. 69.
Vgl. Hansmann (1983), S. 69f.
Vgl. Box/Jenkins (1970), S. 72f. und Schmitz (1989), S. 66ff.
Vgl. zu den ARMA(p,q)-Prozessen Box/Jenkins (1970), S. 73fí, Mohr (1976), S. 36ff. und Wolters (1981), S. 16f.
Vgl. zu den ARIMA(p,d,q)-Prozessen Box/Jenkins (1970), S. 85ff. und S. 120ff. und Mohr (1976), S. 85ff.
Vgl. Leiner (1986), S. 83f., Sticker/Kuon (1988), S. 578f. und Naeve (1980), S. 260.
Vgl. Mohr (1980), S. 1 und Leiner (1986), S. 84.
Vgl. auch das anschauliche und ausführliche Beispiel bei Hansen (1994), S. 239ff.
Vgl. zur Modellidentifikation Box/Jenkins (1970), S. 173ff., Mohr (1976), S. 127ff. und ders. (1980), S. 4ff.
Vgl. Box/Jenkins (1970), S. 72f., Stam/Cogger (1993), S. 487ff., Schmitz (1989), S. 60ff. und die ausführliche Darstellung bei Leiner (1986), S. 85ff.
Vgl. Newbold/Granger (1974), S. 133 und Mohr (1980), S. 5ff., der anhand eines empirischen Beispiels die dabei mögliche Spannweite der Ergebnisse verschiedener Vorgehensweisen aufzeigt.
Vgl. Hansmann (1983), S. 78.
Nach diesem Prinzip sollen nur solche Variablen und Parameter in die Modellauswahl und -spezifizierung einbezogen werden, die einen signifikanten Beitrag zur Erklärung des Verhaltens der zu prognostizierenden Variablen leisten. Die Beachtung dieses Prinzips ist grundsätzlich auch bei anderen analytischen Verfahren sinnvoll, wirkt sich dort aber in der Regel nicht so gravierend aus.
Vgl. Wolters (1981), S. 17, Fn. 11 und S. 18f. und Stam/Cogger (1993), S. 487ff.
Vgl. Box/Jenkins (1970), S. 203 und Mohr (1976), S. 169ff.
Vgl. zum Schätzen der Modellparameter Box/Jenkins (1970), S. 187ff., Mohr (1976), S. 118ff. und S. 157ff. und Deistler/Neusser (1994), S. 267ff. Für praktische Anwendungen ausreichend genaue Approximationen erhält man auch bei Optimierungen mittels des KQ-Kriteriums. Vgl. Hung/Alt (1994), S. 60f.
Vgl. zur Modellüberprüfung mittels “over-fitting” Box/Jenkins (1970), S. 285ff. und Mohr (1976), S. 176ff.
Vgl. Hausmann (1983), S. 88ff. und Mohr (1976), S. 178.
Vgl. zu dem folgenden Hansmann (1983), S. 96ff. und Mohr (1976), S. 210ff.
Vgl. Pack (1982), S. 144f. und Mohr (1976), S. 210.
Vgl. Schmitz (1989), S. 222f.
Vgl. Hung/Alt (1994), S. 59ff.
Vgl. Brockhoff (1977), S. 104.
Vgl. Dawes/Fildes/Lawrence/Ord (1994), S. 155.
Vgl. Wolters (1981), S. 20.
Vereinfachungen könnten darin liegen, bei der Analyse zunächst auf die nichtlineare Datentransformation zu verzichten. Vgl. Mohr (1976), S. 209 und Stam/Cogger (1993).
Vgl. Hartmann (1983), S. 73f.
Vgl. Schmitz (1989), S. 164ff.
Vgl. Hansmann (1980b), S. 381. Bei der Beurteilung des Verfahrens anhand empirischer Reihen muß berücksichtigt werden, daß die Ergebnisse zu einem schwer zu quantifizierenden Teil von der Erfahrung des Prognostikers mit diesem Verfahren abhängen. Vgl. Mohr (1976), S. 2.
Vgl. Sticker/Kuon (1988), S. 579. Vgl. Sticker/Kuon (1988), S. 579. Vgl. Sticker/Kuon (1988), S. 579.
Vgl. zur vollständigen Herleitung und Darstellung des Verfahrens Makridakis/Wheelwright (1978). Im folgenden wird nur auf wichtige Unterschiede zum B/J-Verfahren eingegangen. Vgl. außerdem Förster (1980), S. 193ff.
Vgl. Makridakis/Wheelwright (1977), S. 52ff.
Vgl. Makridakis/Wheelwright (1977), S. 54f. und dies. (1978), S. 286ff.
Vgl. Makridakis/Wheelwright (1978), S. 295ff. und Hansmann (1983), S. 98.
Vgl. hierzu beispielsweise Hansmann (1983), S. 98ff.
Vgl. Makridakis/Wheelwright (1977), S. 56 und Hansmann (1983), S. 100.
Vgl. Hansmann (1983), S. 100.
Vgl. Makridakis/Wheelwright (1977), S. 56ff.
Vgl. Makridakis/Wheelwright (1977), S. 56ff. und S. 64.
Vgl. Makridakis/Wheelwright (1977), S. 64 und Hansmann (1983), S. 103.
Vgl. Hansmann (1983), S. 103.
Vgl. Sticker/Kuon (1988), S. 577.
Vgl. König/Wolters (1972), S. 9.
Die Forderung nach einer im Zeitablauf konstanten Verteilungsfunktion des Prozesses (strenge Stationarität) kann dabei durch schwache Stationarität approximiert werden, wenn die ersten beiden Momente der Verteilung und die Autokovarianzfunktion des Prozesses bestimmte Bedingungen erfüllen. Vgl. Merz (1980), S. 48 und König/Wolters (1972), S. 20f.
Vgl. Merz (1980), S. 48, König/Wolters (1972), S. 21ff. und Hausmann (1983), S. 54.
Vgl. Hansmann (1983), S. 55.
Vgl. Merz (1980), S. 49.
Vgl. König/Wolters (1972), S. 38ff., Box/Jenkins (1970), S. 36ff. und Merz (1980), S. 49.
Vgl. Hansmann (1983), S. 56f., Merz (1980), S. 49, Schmitz (1989), S. 27f., Naeve (1980), S. 262 und Wolters (1981), S. 22.
Vgl. Sticker/Kuon (1988), S. 577.
Zur Ermittlung von Korrelogranun, Spektrum und Lag-Fenstern vgl. König/Wolters (1972), S. 58ff., Merz (1980), S. 53ff., Hansmann (1983), S. 54ff. und Schmitz (1989), S. 30f.
Vgl. Merz (1980), S. 65 und Hansmann (1983), S. 61.
Vgl. Hansmann (1983), S. 62.
Vgl. König/Wolters (1972), S. 111 und Merz (1980), S. 57.
Vgl. König/Wolters (1972), S. 112ff.
Vgl. König/Wolters (1972), S. 117ff. und Merz (1980), S. 59f.
Vgl. König/Wolters (1972), S. 129ff.
Vgl. Makridakis/Wheelwright (1977), S. 186, Hansmann (1979), S. 229 und Brockhoff (1977), S. 75.
Aus diesem Grund schließen Sticker/Kuon heuristische Verfahren generell aus dem Methodenarsenal der Schadenversicherung aus. Vgl. Sticker/Kuon (1988), S. 575. Dieser Auffassung wird hier nicht gefolgt.
Vgl. Hansmann (1979), S. 229.
Zu einer Unterscheidung nach dem befragten Personenkreis vgl. Hüttner (1986), S. 217 und Armstrong (1978), S. 83ff. Im weiteren Verlauf dieser Untersuchung wird nur auf Expertenbefragungen abgestellt.
Vgl. zu verschiedenen Arten der Gruppenbefragung Armstrong (1978), S. 111f.
Zur Problematik der Auswahl der teilnehmenden Experten vgl. Brockhoff (1977), S. 63f. und S. 75ff.
Vgl. Helten (1981b), S. 363.
Vgl. Hansmann (1983), S. 22.
Vgl. zu Kap. 2.3.1.1 Hansmann (1983), S. 22ff. Es wird hiermit darauf hingewiesen, daß auf die exakte Kennzeichnung sinngemäßer Zitate aus dieser Quelle verzichtet wurde. Vgl. auch Helten (198 lb), S. 346f. und Sackuran (1975).
Vgl. Makridakis/Wheelwright (1977), S. 196f.
Vgl. Brockhoff (1977), S. 801f., Hüttner (1986), S. 220f., Armstrong (1978), S. 108f., Schütt (1981), S. 162 und die übersichtliche Flußdiagrammdarstellung bei Geschka (1977), S. 28f. Vgl. zur EDV-Unterstützung im Rahmen von Delphi-Prognosen Brockhoff (1979).
Vgl. Helten (198 lb), S. 346.
Vgl. Helten (198 lb), S. 347.
Vgl. Schutt (1981), S. 162.
Vgl. Armstrong (1978), S. 110.
Vgl. Makridakis/Wheelwright (1977), S. 196.
Vgl. Hüttner (1986), S. 221. Allerdings kann angeführt werden, daß allein der höhere Konsens der Meinungen noch keine Garantie für eine höhere Prognosegüte ist. Vgl. Geschka (1977), S. 35.
Vgl. Hansmann (1979), S. 233 und Schutt (1981), S. 163.
Vgl. Geschka (1977), S. 35 und Hüttner (1986), S. 223.
Vgl. Hüttner (1986), S. 224 und Geschka (1977), S. 36.
Vgl. Geschka (1977), S. 36.
Vgl. Brockhoff(1977), S. 81ff.
Vgl. Makridakis/Wheelwright (1977), S. 197. Eine Übersicht über diese Modifikationen und Weiterentwicklungen der Delphi-Methode findet man bei Geschka (1977), S. 39ff.
Vgl. Hüttner (1986), S. 253 und Hansmann (1983), S. 22ff.
Vgl. Stover/Gordon (1978), S. 301ff.
Vgl. Hüttner (1986), S. 254 und Stover/Gordon (1978), S. 320. 2 Vgl. Stover/Gordon (1978), S. 320ff.
Vgl. Hüttner (1986), S. 255.
Hansmann (1979), S. 230.
Vgl. Reibnitz (1989), Sp. 1980–1990 und Hansmann (1979), S. 230f.
Das quantitative Pendant zur Szenario-Technik bildet die Mikrosimulation. Vgl. hierzu Merz (1991), S. 77ff.
Vgl. Hüttner (1986), S. 252 und Brockhoff (1977), S. 135.
Vgl. Armstrong (1978), S. 41 und Hansmann (1979), S. 230.
Vgl. Hansmann (1979), S. 231.
Vgl. Reibnitz (1989).
Vgl. Brockhoff (1977), S. 87.
Vgl. Armstrong (1978), S. 263.
Vgl. Brockhoff (1977), S. 88.
Vgl. Niederhübner (1994), S. 205f.
Vgl. Brockhoff (1977), S. 89 und Armstrong (1978), S. 263.
Vgl. zum folgenden Hühner (1986), S. 255.
Vgl. ausführlich zu diesem Verfahren Dubach (1977), S. 112ff. und Makridakis/Wheelwright (1977), S. 193ff.
Vgl. Badelt (1977), S. 126ff.
Vgl. Bruckmann (1977a), S. 72ff.
Vgl. Bruckmann (1977a), S. 72ff. und Hüttner (1986), S. 251.
Siehe hierzu Makridakis/Wheelwright (1977), S. 188ff.
Rights and permissions
Copyright information
© 1998 Springer Fachmedien Wiesbaden
About this chapter
Cite this chapter
Busshart, M., Maneth, M.F.F., Eisen, R. (1998). Die ökonomischen und statistischen Grundlagen. In: Schadenkostenprognose. Gabler Verlag, Wiesbaden. https://doi.org/10.1007/978-3-663-11330-0_2
Download citation
DOI: https://doi.org/10.1007/978-3-663-11330-0_2
Publisher Name: Gabler Verlag, Wiesbaden
Print ISBN: 978-3-409-12102-6
Online ISBN: 978-3-663-11330-0
eBook Packages: Springer Book Archive