Advertisement

Empirische Analyse der Indikatoren

  • Frauke Kreuter
Chapter
  • 179 Downloads
Part of the Methodische Aspekte kriminologischer Forschung book series (MAKF, volume 1)

Zusammenfassung

In Kapitel 3 wurden die bisher in der Bundesrepublik verwendeten Instrumente zur Messung von Kriminalitätsfurcht dargestellt. Die wörtliche Interpretation der mit Hilfe dieser Instrumente gewonnenen Ergebnisse setzt eine vorhandene und verankerte Einstellung „Kriminalitätsfurcht“ voraus. Die Überlegungen aus Kapitel 2 stellen diese Voraussetzung in Frage. Wird Kriminalitätsfurcht als ein Konstrukt aus dem subjektiv wahrgenommenen Risiko einer Viktimisierung und den damit verbundenen Kosten verstanden, erscheint vor dem Hintergrund situations- und deliktspezifisch variierender Risiko- und Kostenwahrnehmungen die mentale Verankerung einer Gesamtbeurteilung für die Befragten wenig sinnvoll. Deshalb wird davon ausgegangen, dass die Antworten während der Befragung durch den Befragten generiert werden und nicht bereits kognitiv repräsentiert sind und somit bei Präsentation der Frage nicht automatisch aktiviert werden können.

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Literatur

  1. 1.
    Zur Datenerhebung der qualitativen Interviews vgl. Abschnitt 5.1.1. Erläuterungen zur DEFECT-Studien finden sich in Abschnitt 5. 3. 2.Google Scholar
  2. 2.
    Die fünf Interviews in Mannheim konnten nicht oder nur teilweise transkribiert werden. Ein Befragter hatte die Aufnahme verweigert, in zwei Fällen wurde die Aufnahmequalität durch anwesende Dritte so sehr verschlechtert, dass eine Transkription nicht mehr sinnvoll erschien. In den beiden übrigen Interviews zeigte sich, dass die kognitiven Interviewtechniken nicht angewendet wurden. Sie sind deshalb für diesen Kontext nicht verwertbar. Zu den Details dieser Erhebung vgl. Abschnitt 5.1.1.Google Scholar
  3. 3.
    Der auf der Web-Seite zu dieser Arbeit zur Verfügung gestellte Leitfaden entspricht der letzten Version dieses Leitfadens. Die Erfahrungen aus den ersten qualitativen Interviews legten einige kleine Veränderungen in der Fragenfolge nahe.Google Scholar
  4. 4.
    Bei zwei der zehn Interviews wurde nicht nach dem Gefühl der Beunruhigung sondern nach dem Gefühl einer Bedrohung gefragt.Google Scholar
  5. 5.
    Bei acht der 15 Interviews wurden den Befragten eine oder zwei Übungsfragen gestellt, damit sie sich daran gewöhnen konnten „laut zu denken“.Google Scholar
  6. 7.
    Der Fragebogen der DEFECT-Studie enthielt lediglich drei Delikte (vier für Frauen) und eignet sich damit weniger gut für die nachfolgende Analyse. Zudem wurde im DEFECT-Projekt eine fünfstufige Antwortskala verwendet (vgl. Abschnitt 5.3). Eine solche Skala ist für diese Items eher unüblich (vgl. Tabelle A.2 auf Seite 236).Google Scholar
  7. 8.
    Die Diskussion möglicher Effekte verschiedener Beschriftungen der Antwortkategorien erfolgt in Abschnitt 6.3.2.Google Scholar
  8. 9.
    Bei dieser Studie erfolgte die Stichprobenziehung getrennt für Osten und Westen. Es handelt sich dabei um eine disproportionale Stichprobe mit drei Teilstichproben für den Osten Deutschlands. Da für den zur Verfügung gestellten Datensatz keine ausreichende Dokumentation der Gewichtungsvariablen vorliegt, wurde die Analyse auf Befragte in Westdeutschland beschränkt.Google Scholar
  9. 10.
    Um die Grundgesamtheit zwischen den Surveys vergleichbar zu halten, wurden in die Analysen nur Personen ab 18 Jahren eingeschlossen.Google Scholar
  10. 13.
    Die homogenisierenden Effekte der Interviewer können an dieser Stelle nicht von denen des Sampling-Points getrennt werden (vgl. die Ausführungen in Abschnitt 4.2.5). Die Analysen in Abschnitt 6.6 stützen jedoch die hier formulierte Aussage.Google Scholar
  11. 27.
    Da es sich hier um ein so genanntes „classroom experiment“ handelt, bei dem Studierende zum gleichen Zeitpunkt als Teilnehmer der gleichen Vorlesung an diesem Experiment teilnahmen, ist es möglich, dass die Annahme unabhängiger Beobachtungen verletzt ist. Aus diesem Grund wurden zusätzlich die Mittelwertdifferenzen für 1000 Bootstrap-Stichproben des Samples berechnet. Dabei liegen 95% der berechneten Differenzen zwischen den Werten —0.75 und —0.11. Näheres zu Bootstrap-Techniken findet sich bei Efron/Tibshirani (1993). Für eine kurze Erläuterung des Prinzips vgl. Kohler/Kreuter (2001: 233).Google Scholar
  12. 28.
    Nicht berücksichtigt wurde die Viktimisierung durch einen Verkehrsunfall. Im weiteren Verlauf der Arbeit werden zum Vergleich von Verteilungen auch Box-Plots (Schnell 1994: 18–20) und Kern-Dichtekurven (Schnell 1994: 26–30) verwendet. Die unterschiedlichen Darstellungsweisen wurden gewählt, um die Aufmerksamkeit der Betrachter jeweils nur auf die für die Aussagen notwendigen Elemente zu konzentrieren.Google Scholar
  13. 29.
    In der ersten Variante des in Abschnitt 5.2.1 beschrieben Experimentes kann der Effekt nicht beobachtet werden. Die Mittelwerte für die deliktunspezifische Frage nach dem Unsicherheitsgefühl unterscheiden sich nicht zwischen diesen beiden Gruppen (Gruppe 1: 3.8; Gruppe 2: 3.9; p=0.6). Das Gleiche gilt für alle deliktspezifischen Fragen. Wie bereits erwähnt, kann bei diesem Experiment nicht garantiert werden, dass die Experimentalbedingung eingehalten wurde. Es ist demnach unklar, ob es sich bei den Ergebnissen um eine Falsifikation der obigen Hypothesen handelt, oder ob ein Fehler im Versuchsaufbau die Interpretation der Ergebnisse unmöglich macht.Google Scholar
  14. 30.
    Dies wäre für Befragungen dann besonders kritisch, wenn nicht kontrolliert werden kann, mit welchen Zeitungsmeldungen oder ähnlichem die Befragten einer Region unmittelbar vor dem Interview konfrontiert wurden.Google Scholar
  15. 31.
    Ähnlichkeit bezieht sich hier auf Alter und Geschlecht.Google Scholar
  16. 32.
    Die Fragen-Blöcke B2 und B3b in Tabelle 6.9.Google Scholar
  17. 33.
    Im Folgenden werden nur die Delikte untersucht, auf die Männer und Frauen eine Antwort gaben, da die Fallzahlen bei den Fragen zu Sexualdelikten sonst zu niedrig sind.Google Scholar
  18. 34.
    Einige der verwendeten Variablen sind sehr schief verteilt. Da solche Verteilungen die Ergebnisse beeinflussen können, wurden die vorliegenden und folgenden Analysen, die sich auf Mittelwertdifferenzen beziehen, jeweils auch mit transformierten Variablen durchgeführt. Verwendet wurden Box-Cox-Transformationen (vgl. Schnell 1994: 78). Die Ergebnisse ändern sich dadurch jedoch nicht.Google Scholar
  19. 35.
    Für die Beurteilung der Korrelation zwischen den beiden Messungen liegt in diesem Fall kein Kriterium vor. Bei Reliabilität von Skalen wird als Daumenregel ein alpha von 0.7 genannt (Nunnally/Bernstein 1994: 265). Bemerkt werden muss jedoch, dass der Reliabilitätskoeffizient, berechnet aus der Test-Retest-Korrelation zwischen beobachteten Test-und Retest-Werten, den Wert eins nicht erreichen kann (Bonate 2000:34). Dieses Phänomen wird als „regression towards the mean“ bezeichnet.Google Scholar
  20. 36.
    Zur Gewichtung wurde die in Abschnitt 4.2.3 dargestellte Design-Matrix verwendet.Google Scholar
  21. 37.
    Die Frage nach der Beunruhigung vor einem tödlichen Autounfall kann bei dieser Analyse nicht berücksichtigt werden. In der Vorher-Messung wurde lediglich nach der Beunruhigung „Opfer eines Verkehrsunfalls zu werden“ gefragt.Google Scholar
  22. 38.
    Zu dem gleichen Ergebnis gelangt man, wenn statt des Wilcoxon-Tests der von Kornbrot entwickelte Test für ordinale Daten verwendet wird (vgl. Kornbrot 1990).Google Scholar
  23. 39.
    Vgl. dazu auch Dunlap u. a. (1994).Google Scholar
  24. 40.
    Dazu muss angemerkt werden, dass die Diskussion über die Sicherheit auf den Straßen keine explizite Nennung von Raubüberfallen beinhaltet hat.Google Scholar
  25. 42.
    Zur Diskussion über die Angemessenheit dieser Maßzahl vgl. Seite178. Zusätzlich sei hier angemerkt, dass es sich bei dieser Test-Retest-Studie nicht um eine Prüfung der Reliabilität handelt. Reliabilität wird hier verstanden als Korrelationsbeziehung zwischen beobachteten Variablen und „wahrem“ Wert (vgl. Lord/Novick 1968 ). Da die Existenz eines „wahren” Wertes selbst nach wie vor fraglich ist, soll die vorliegende Analyse lediglich einen Indikator dafür liefern, ob „etwas“ wiederholt auf die gleiche Weise gemessen wird.Google Scholar
  26. 43.
    Es könnte vermutet werden, dass ein Teil der Probanden aus dem Wunsch einer konsistenten Antwort im Retest die Kategorie „weiß nicht“ wählt. Tatsächlich antwortete aber in der zweiten Befragungswelle bei keiner der Furcht-Fragen mehr als eine Person mit „weiß nicht”.Google Scholar
  27. 46.
    Bei dichotomen Variablen ist der angemessene Korrelationskoeffizient ¢ (Howell 1997:283), der hier jedoch den Werten von Pearsons r entspricht.Google Scholar
  28. 47.
    Bei den Fragen zu vom Probanden selbst genannten Orten wurde auch die zu beurteilende Tageszeit spezifiziert. Bei den von anderen genannten Orten jedoch nicht. Im Verlauf des Experiments lag die Betonung jedoch auf der Beurteilung unterschiedlicher Orte, so dass der Aspekt der Spezifizierung der Zeit hier nicht weiter diskutiert wird. Es ist allerdings nicht auszuschließen, dass damit eine nicht kontrollierbare Störvariable vorliegt.Google Scholar
  29. 48.
    Im Folgenden wird der Einfachheit halber immer von ortsspezifischen Items gesprochen. Selbstverständlich handelt es sich aber um delikt-und ortsspezifische Items.Google Scholar
  30. 49.
    Entsprechend der bei der Analyse von Reaktionszeiten üblichen Vorgehensweise wurden auch hier alle Reaktionen ausgeschlossen, die mehr als zwei Standardabweichungen vom Mittelwert entfernt waren (vgl. Bassili/Fletcher 1991 ). Dies führt beim allgemeinen Kriminalitätsfurchtindikator zu einem Ausschluss von zwei Fällen. Bei allen anderen Messungen lag höchstens ein Fall außerhalb dieser Grenze. Bei der Angabe dieser Spannweite und allen folgenden Analysen bleiben die Reaktionszeiten der Übungsfragen (vgl. Seite 125) unberücksichtigt, ebenso die Fragen zur Furcht und zum Risiko eines Verkehrsunfalls. Diese Frage wurde als Übungseinstieg bei jedem neuen Frageblock verwendet und sollte nur dazu dienen, dass sich die Befragten erneut an die Skala und den Bildschirmaufbau gewöhnen können.Google Scholar
  31. 50.
    Für eine ausführliche Erläuterung zu Box-Plots vgl. Schnell (1994:18–20).Google Scholar
  32. 53.
    Für einen Einstieg in solche Modelle vgl. Johnston/DiNardo (1997), ausführlichere Erläuterungen finden sich in Balestra (1992a) und Balestra (1992b).Google Scholar
  33. 54.
    Die Fragen nach der Häufigkeit von Opfergedanken und den Viktimisierungswahrscheinlichkeiten bleiben unberücksichtigt. Ebenso bleiben auch hier die Übungsfragen und die jeweilige Einstiegsfrage zur Furcht vor einem Unfall außen vor.Google Scholar
  34. 55.
    Die den Reaktionszeiten zugewiesene Platzierung richtet sich nach dem vom Probanden erfahrenen Experimentalablauf. Das heißt, bei denjenigen Probanden, die selbst keine Orte nannten, an denen sie sich fürchten, haben die Reaktionszeiten der ortsspezifischen Items (von anderen genannte Orte) eine andere Platzierung als bei denjenigen, die zunächst Fragen zu von ihnen genannten Orten beantworteten.Google Scholar
  35. 61.
    Von den 132 Items des Fragebogens (Referenz sind hier die Fragen des Fragebogens der postalischen Befragung vgl. http://eserm,.bsz-bw.de/sicher/; Stand 04.02), wurden fünf Items aus der Analyse ausgeschlossen: Eine Frage, die nicht in allen DEFECT-Surveys mit der gleichen Antwortskala abgefragt wurde, zwei un-kodierte Textvariablen sowie die Nachfrage nach einer etwaigen Doppelbefragung. Ebenfalls ausgeschlossen wurde der Wochentag des Interviews, der vom Befragten angegeben wird; eine Klumpung innerhalb der Interviewer bei dieser Variable muss auf das Kontaktierungs-und weniger auf das Interviewverhalten der Interviewer zurückgeführt werden. Zum Kontaktierungsverhalten vgl. Schnell/Kreuter (2000b).Google Scholar
  36. 62.
    Die Berechnung von p erfolgte mit dem Befehl „loneway“ von Stata. Verschiedene Klassengrößen werden bei „loneway” nicht explizit berücksichtigt. Für eine Zufallsauswahl von 30 Items wurde mit Hilfe des Befehls „llway“ die Klassengrößen berücksichtigt. Es zeigten sich jedoch keine nennenswerten Unterschiede zu den zuvor berechneten Koeffizienten. Bei einer größeren Klumpung von Sampling-Points innerhalb der Interviewer hätten so genannte „cross-classified models” verwendet werden müssen (vgl. Rasbash/Goldstein 1994).Google Scholar
  37. 63.
    Eine vergleichbare Vorgehensweise wählten Mangione u. a. (1992).Google Scholar
  38. 66.
    Der zweithöchste Wert für p tritt bei der Filterfrage nach erlebten sexuellen Angriffen innerhalb der letzten 12 Monate auf, die nur einem kleinen Teil der Befragten (73 Frauen) gestellt und bei diesen von rund 88 Prozent verneint wurde. Der höchste Wert für p wird bei der Frage nach den im Krankenhaus verbrachten Nächten beobachtet. Auch die Antworten auf diese Frage sind extrem schief verteilt, da die meisten Befragten einen Wert von Null aufweisen und einige wenige sehr hohe Werte. Eine solche Verteilung führt zu hohen Werten von p,muss aber nicht durch die Interviewer induziert sein.Google Scholar
  39. 68.
    Für ein Subsample von Items wurden die Effekte zur Kontrolle mit drei weiteren Verfahren geschätzt: Random-Groups, Jackknife und Bootstrap. Einige beispielhafte Ergebnisse und die verwendeten Formeln sind in Anhang C.2 aufgeführt. Zu diesen Verfahren vgl. Kish/Frankel (1974), für Bootstrap-Verfahren vgl. Stine (1990), Efron/Tibshirani (1993), Davison/Hinkley (1997).Google Scholar
  40. 69.
    Da die Werte von deft auch mit der postalischen Befragung verglichen wurden, wurde die Frage nach der Zahl der Einwohner der Gemeinde ausgeschlossen. Bei dieser Frage handelt es sich bei korrekter Beantwortung um eine Konstante innerhalb der Sampling-Points.Google Scholar
  41. 70.
    In diesem Fall handelt es sich um Dichtekurven mit einem Epanechnikov-Kern (Schnell 1994: 28).Google Scholar
  42. 75.
    Zu beachten ist, dass Ft/ immer größer ist als das einfache arithmetische Mittel der Zahl der Interviews pro Interviewer („workload“); nj wird größer bei einer größeren Streuung der einzelnen nz (Davis/Scott 1995:100).Google Scholar
  43. 76.
    Dieses Verhältnis unterscheidet sich ein wenig von der üblichen Definition für deff, welche im Sinne tatsächlicher und nicht geschätzter Varianzen formuliert ist (vgl. Davis/Scott 1995:100).Google Scholar
  44. 77.
    Zu diesen Modellen vgl. Hox (1994), Kreft/DeLeeuw (1998), Snijders/Bosker (1999). Zur Berechnung von Q2 auf allen drei Untersuchungsebenen - den Befragten, den Interviewern und den Sampling-Points - wurde das Programm MLwiN 1.10 (Rasbash u. a. 2000) verwendet. Für die Berechnung von deft aus den Ergebnissen vgl. Anhang C. 2.Google Scholar
  45. 78.
    Diese Formulierung ist so nur gültig, wenn angenommen werden kann, dass die Zuweisung der Interviewer zu den Sampling-Points zufällig erfolgte (vgl. Davis/Scott 1995: 102). Da angenommen werden muss, dass die Institute aus Kostengründen auf ortsansässige Interviewer zurückgreifen, kann nicht ausgeschlossen werden, dass ein Teil der Interviewereffekte auf die Allokation und nicht auf das Interviewerverhalten zurückzuführen ist.Google Scholar
  46. 80.
    Sämtliche Werte von deft, die über Gleichung 6.23 berechnet wurden, wurden mit den Werten von deft verglichen, die sich aus der Schätzung über die TaylorLinearisierung (vgl. Anhang C.2) mit den Sampling-Points als klumpendefinierende Größe ergeben. Alle Werte von deff, die mehr als zehn Prozent von den mit Hilfe der Taylor-Linearisierung berechneten Design-Effekten abwichen, sind in den nachfolgenden Analysen ausgeschlossen. Auch hier zeigten sich Abweichungen vor allem bei Fragen, die nur von einem Teil der Befragten beantwortet wurden (z. B. Filterfragen für Frauen oder Opfer) und bei Fragen mit einer sehr schiefen Verteilung der Antworten. Für die übrigen Items wurden kleine Abweichungen in Kauf genommen, da in der Analyse nicht das absolute Niveau von deft im Vordergrund steht, sondern die Aufteilung der Varianzanteile innerhalb einer Berechnungsmethode. Weiterhin bewegen sich die Abweichungen im Rahmen der durch die veränderte Berechnungsmethode naheliegenden Schwankungen für die Schätzung von deft (vgl. Anhang C.2).Google Scholar
  47. 81.
    Ein Hinweis zu den in Abbildung 6.16 sichtbaren Ausreißern: Die Frage nach der Entfernung zum nächsten Bahnhof weist bei einem sehr hohen deft einen ebenfalls hohen Intervieweranteil auf. Die beiden Fragen mit einem deft von ca. 2.5 und einem kaum merklichen Intervieweranteil sind die Fragen zum Mietverhältnis (Eigentümer und Hauptmieter). Im Plot nicht enthalten ist der Wert für deft der Frage nach der Einwohnerzahl der Gemeinde. Wie oben erwähnt, ist auch hier der durch den Sampling-Point notwendigerweise entstehende Design-Effekt sehr hoch.Google Scholar
  48. 82.
    Verwendet wurden hier 83 Items. Ausgeschlossen bleiben diejenigen, bei denen keine stabile Schätzung angenommen werden kann und die 10 kategorialen Variablen, die bei der Trennung von Interviewer-und Sampling-Point-Effekten nachträglich kategorisiert wurden.Google Scholar
  49. 85.
    Beim British Crime Survey 1994 handelt es sich um eine fünstufige Stichprobe aus dem Wahlregister, welches bis auf vier Prozent alle Haushaltsadressen enthält (Hough/Mayhew 1985: 78). Die fünf Stufen beinhalten folgende Ziehungsschritte: „parliamentary constituencies“, „wards within these constituencies”, „polling districts“, „addresses” and „individuals at these addresses“. Die letzte Auswahlstufe erfolgt durch den Interviewer. Es handelt sich um 11030 Face-to-FaceInterviews, die von insgesamt 309 Interviewern durchgeführt wurden.Google Scholar

Copyright information

© Springer Fachmedien Wiesbaden 2002

Authors and Affiliations

  • Frauke Kreuter
    • 1
  1. 1.KonstanzDeutschland

Personalised recommendations