Advertisement

Datenerhebung

  • Frauke Kreuter
Chapter
  • 175 Downloads
Part of the Methodische Aspekte kriminologischer Forschung book series (MAKF, volume 1)

Zusammenfassung

Die Anwendung der in Kapitel 4 vorgestellten Kriterien zur Beurteilung der Güte der Kriminalitätsfurchtfragen erfordert verschiedene Datentypen und stellt spezifische Anforderungen an das Design der Erhebungen. In Hinsicht auf die Gütekriterien lässt sich aus den bereits vorliegenden Erhebungen somit vergleichsweise wenig lernen. Deshalb war es notwendig, eine Reihe von Experimenten und Erhebungen durchzuführen, die in den folgenden Abschnitten vorgestellt werdenl. Die detaillierte Darstellung soll eine angemessene Interpretation und eine Replikation der in Kapitel 6 dargestellten Analyseergebnisse ermöglichen.

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Literatur

  1. 1.
    Die Anweisungen und Fragen aus der Datenerhebung werden wörtlich zitiert und deshalb in der alten Rechtschreibung abgedruckt.Google Scholar
  2. 2.
    Finanziell gefördert durch die Deutsche Forschungsgemeinschaft mit der Projektnummer SCHN586/2–1.Google Scholar
  3. 3.
    Einige Textpassagen der vorliegenden Arbeit dienten als Vorlage der bisher unveröffentlichten Projektdokumentation (Schnell u. a. 2001 ). Trotz dieser Oberlappungen sind sie eine Eigenleistung der Autorin. Die hier beschriebenen Aspekte des DEFECT-Projekts stellen nur einen sehr kleinen Ausschnitt der Projektdokumentation dar. Die Beschränkung orientiert sich an der für die Beurteilung der später durchgeführten Analysen wünschenswerten Informationen.Google Scholar
  4. 4.
    Für den Zugang zu den Daten des Projekts „Sozialer Umbruch und Kriminalitätsentwicklung“ (SUK) danke ich Herrn Boers (Universität Münster), für den Zugang zu den Daten der verschiedenen Konstanzer-Viktimisierungs-Surveys danke ich Herrn Heinz und Herrn Spieß (beide Universität Konstanz) sowie Herrn Blath (Bundesministerium der Justiz).Google Scholar
  5. 5.
    Sie sind kurz, beinhalten weder schwierige Wörter noch doppelte Verneinungen oder doppelte Fragen (Payne 1951: 228–237).Google Scholar
  6. 6.
    In der Literatur finden sich solche Techniken unter dem Begriff cognitive interviewing, cognitive laboratory methods oder Entwicklungs-Pretest (vgl. auch Converse/Presser 1986, Forsyth/Lessler 1991).Google Scholar
  7. 7.
    Die qualitativen Interviews sollten in Städten durchgeführt werden, die laut der polizeilichen Kriminalstatistik unterschiedlich starke Belastungsziffern aufweisen. Gleichzeitig sollte die Möglichkeit geschaffen werden, dass in den Interviews Ost-West-Unterschiede zu Tage treten können. Dass die Wahl dabei neben Konstanz auf Mannheim und Dresden fiel lag daran, dass qualitative Interviews in diesen Städten mit einem moderaten organisatorischen Aufwand durchgeführt werden konnten. Diese Einschränkung bei der Auswahl der Städte war notwendig, da für die qualitative Erhebung im Rahmen der DEFECT-Studie keine Mittel zur Verfügung standen.Google Scholar
  8. 8.
    Laut Willis (1994: 45) genügen für eine Pretest-Runde 12 Interviews, eine Ausdehnung solcher qualitativen Interviews bezeichnet er als ineffizient, da die Hauptprobleme schon bei dieser Probandenzahl sichtbar werden.Google Scholar
  9. 9.
    Zur Bereinigung der Einträge von Telefonverzeichnissen vgl. Schnell (1997b).Google Scholar
  10. 10.
    Die Anschreiben erfolgten an die in der Telefondatenbank eingetragene Person. Alle Anschreiben wurden persönlich unterschrieben, um die Bedeutung des Anliegens zu betonen.Google Scholar
  11. 11.
    In Konstanz konnten alle fünf Interviewtermine über die zuvor kontaktierten Adressen realisiert werden. Auch in Dresden war die Teilnahmebereitschaft erfreulich hoch. Zwei der vereinbarten Termine wurden später nicht eingehalten, deshalb mussten dort die fehlenden Interviews als Quotenerhebung (vgl. Tabelle 5.2) durchgeführt werden. In Mannheim konnte nur ein Interviewtermin telefonisch vereinbart werden. Neben einer deutlich schlechteren Erreichbarkeit war auch die spontane Verweigerungsquote in Mannheim bedeutend höher. Somit musste in Mannheim auf eine willkürliche Auswahl vor Ort zurückgegriffen werden. Es wurden bei Haushalten, die in der Nähe der ursprünglichen Zieladresse lagen, geklingelt. Ein Befragter wurde auf der Straße angesprochen.Google Scholar
  12. 12.
    Die Interviews wurden von vier Interviewerinnen durchgeführt. Bei den Interviewerinnen handelte es sich um Mitarbeiterinnen des DEFECT-Projekts bzw. um eine für diesen Zweck beauftragte wissenschaftliche Mitarbeiterin des Mannheimer Zentrums für Europäische Sozialforschung. Die Interviews in Konstanz wurden von der Autorin und zwei Projektmitarbeiterinnen durchgeführt, die Interviews in Dresden wurden durch die Autorin erhoben.Google Scholar
  13. 13.
    Zu diesen Techniken vgl. Forsyth/Lessler (1991: 397 ), Bradburn/Danis (1984). Da die Literatur zu diesem Thema fast ausschließlich mit den englischen Begriffen zu diesen Techniken arbeitet, werden diese Begriffe hier ebenfalls verwendet.Google Scholar
  14. 14.
    Zudem wurde darauf geachtet, dass geschlossene Antwortvorgaben nur dann verwendet wurden, wenn sich die Nachfragen auf die Antwortvorgaben bezogen. Es bestand die Befürchtung, dass den Befragten der Wechsel von geschlossenen knappen Antwortvorgaben zu ausführlichem lautem Denken schwer fallen würde.Google Scholar
  15. 15.
    Zur Diskussion dieser Probleme vgl. Willis (1994:7).Google Scholar
  16. 16.
    Ein Interview konnte aufgrund technischer Schwierigkeiten nicht aufgezeichnet werden.Google Scholar
  17. 17.
    Der Leitfaden für das Interview und die Originaltexte der Erläuterungen können ebenfalls über Homepage zu dieser Arbeit unter der Adresse http://www.unikonstanz.de/FuF/Verwiss/Schnell/Kreuter/diss.htm (Stand 04.02) bezogen werden. Die Erläuterungen und Übungsbeispiele lehnen sich an die Vorschläge von Bishop (1992: 162) an. Zu den Übungsbeispielen der think aloud Aufgabe muss bemerkt werden, dass die ursprünglich geplante Frage nach der Erinnerung an die letzten Arztbesuche zu persönlich erschien und durch Kinobesuche ersetzt wurde.Google Scholar
  18. 18.
    Auch in der hier dargestellten Studie wurde der größte Teil der Pretests in Konstanz durchgeführt und die Erhebungsinstitute, die in die Fragebogenentwicklung einbezogen wurden, sind ebenfalls im Westen. Deutschlands angesiedelt. Bis zum Schluss hatte z. B. niemand bemerkt, dass die Frage „Waren Sie bei der Bundeswehr“ auf den größten Teil der ostdeutschen Bevölkerung nicht zutrifft - dort hätte es „Nationale Volksarmee” heißen müssen.Google Scholar
  19. 20.
    Es wurden aus einer Liste aller im Jahr 1998 in der Bundesrepublik Deutschland eingetragenen Telefonnummern ein Satz von 3230 Telefonnummern gezogen, die letzte Ziffer dieser Nummern gestrichen und durch eine zufällige Ziffer ersetzt (vgl. Schnell 1997b).Google Scholar
  20. 21.
    Bei den übrigen Haushalten wurden Termine außerhalb der Feldzeit vereinbart (0.9%; n=6) oder das Interview musste aus technischen Gründen (1.4%; n=10) abgebrochen werden.Google Scholar
  21. 22.
    Dies entspricht dem Vorschlag von Rohrmann (1978) zur Beschriftung von Intensitätsskalen. Sie erfüllen weitgehend die folgenden Gesichtspunkte: Äquidistanz der Skalenpunkte, Prägnanz der Begriffe, Geläufigkeit der Wörter, Kombinierbarkeit der Begriffe, Praktikabilität in mündlichen Befragungen (Rohrmann 1978: 239). Rohrmann betont jedoch, dass es nicht sicher sei, dass diese Antwortskala für Wahrscheinlichkeiten Intervallskalenqualität aufweist (vgl. Rohrmann 1978: 242 ).Google Scholar
  22. 24.
    Die Studierenden wurden an der Universität (Mensa, Aula, Bibliothek usw.) angesprochen. Eine Entschädigung erfolgte über Getränke und Schokoriegeln. Die 11 Psychologiestudenten unter den 49 Probanden wurden mit je einer halben Versuchspersonenstunde entlohnt; sie wurden bewußt auf alle drei Versuchsbedingungen verteilt.Google Scholar
  23. 25.
    Die Fragen entsprechen den Formulierungen des „Konstanzer Victim Survey“. Lediglich die Antwortalternativen wurden gemäß der Vorschläge von Rohrmann (1978) verändert (vgl. Fußnote 22 auf Seite 114).Google Scholar
  24. 26.
    Im Fragebogen war die Formulierung „in Ihrem Stadtteil“ unterstrichen.Google Scholar
  25. 28.
    Verwendet wurden die Tasten „c, v, b, n, m“ einer deutschen Tastatur. Sie liegen in der horizontalen Mitte der Tastatur und sind gleichzeitig leicht erreichbar. Die Praktikabilität verschiedener Tasten wurde vorab in einem Pretest geprüft.Google Scholar
  26. 29.
    Eine der Vignetten bezieht sich auf Ereignisse an Fastnacht. Der dort erwähnte Begriff „Schmotzige“ bezieht sich auf den Donnerstag vor Fastnacht, der in Konstanz als Straßenfastnacht gefeiert wird. Nur einem Probanden war dieser Begriff nicht geläufig.Google Scholar
  27. 30.
    Damit die Anpassung nicht zu auffällig erfolgt, wurde das Alter mit einer Zufallszahl kombiniert. Alle Opfer sollten einen maximalen Altersunterschied von sieben Jahren zum Probanden haben. Bei einem Delikt sollte das Alter des Opfers exakt dem Alter des Probanden entsprechen. In der hier präsentierten Version wird in die groß geschriebenen Platzhalter aller Vignetten die weibliche Form eingesetzt.Google Scholar
  28. 31.
    Den männlichen Probanden wurden die Fragen nach sexueller Belästigung und sexuellen Angriffen nicht gestellt.Google Scholar
  29. 32.
    Diese Beschriftungen der Antwortkategorien entsprechen auch hier den Vorschlägen von Rohrmann (1978).Google Scholar
  30. 34.
    Die Investition in Sicherheitsanlagen lohnt sich. Einbrecher haben es deutlich schwerer und das Risiko für einen Einbruch wird geringer.“; „Sicherheitsanlagen bieten keinen erhöhten Schutz. Einbrecher wissen, wie sie diese ausschalten oder umgehen können.”; „Das Risiko für einen Einbruch steigt, wenn man Sicherheitsanlagen verwendet, da die Einbrecher sich dann erst recht angelockt fühlen.“.Google Scholar
  31. 35.
    Verwendet wurden dabei folgende Items: „Waren Sie im Laufe dieser Woche einmal nach 20 Uhr alleine unterwegs?“ (Während der Pretest-Phase war es um diese Zeit schon dunkel.). Wurde diese Frage positiv beantwortet, folgte eine weitere: „Hatten Sie dabei daran gedacht, daß Sie unterwegs überfallen oder beraubt werden könnten?” und für alle die Frage „Wurde bei Ihnen schon einmal eingebrochen?“.Google Scholar
  32. 36.
    Die Fotografien wurden eigens für diese Studie so erstellt, dass verschiedene Orte mit unterschiedlichen Belichtungen und einer unterschiedlichen Zahl Personen zu sehen waren.Google Scholar
  33. 38.
    Nicht alle Studierende waren in beiden Veranstaltungen und nicht alle Studierenden beantworteten die Fragen nach den Geburtsdaten ihrer Eltern so, dass eine Zusammenführung der Fragebogen beider Panel-Wellen möglich gewesen wäre.Google Scholar
  34. 39.
    Zur Präzision von Zeitmessungen unter DOS und Windows vgl. Myors (1999).Google Scholar
  35. 40.
    Die Y-Taste einer deutschen Tastatur.Google Scholar
  36. 41.
    Auch hier wurden die Tasten „c, v, b, n, m“ einer deutschen Tastatur verwendet; siehe dazu die Beschreibung auf Seite 118.Google Scholar
  37. 42.
    Diese Beschriftungen klebten auf den Tasten,,.“ und „-”.Google Scholar
  38. 43.
    Das Experiment wurde als eine Studie zur Validierung eines Fragebogens vorgestellt. Deshalb wurden alle Studierenden der Fachrichtung Psychologie sowie alle Studierenden, die bereits eine Methodenveranstaltung besucht hatten, von diesem Experiment ausgeschlossen. Bei diesen bestand die Gefahr, dass sie sich während des Experiments mit der Möglichkeit und der Güte einer Validierung beschäftigen und dadurch die sensible Reaktionszeitmessung verzerren. Somit konnten als „Belohnung“ keine Versuchspersonenstunden in Aussicht gestellt werden. Während der Rekrutierung zeigte sich jedoch, dass die Mithilfe bei der Validierung eines Fragebogens ausreichend motivierend wirkte. Als „Dankeschön” konnten sich die Testpersonen mit Getränken und Schokoriegeln versorgen.Google Scholar
  39. 44.
    Die Reihenfolge der Präsentation entspricht der hier aufgeführten Reihenfolge. 45 Da die Reaktionszeiten vom Einblenden des neuen Textes bis zur Betätigung einer Taste gemessen wurden, werden die Reaktionszeiten auf die Frage nach dem Unfall höher sein als auf die Fragen nach den übrigen Delikten.Google Scholar
  40. 46.
    Diese Zeile, in der die einzelnen Delikte angegeben werden, war farblich vom übrigen Text abgesetzt.Google Scholar
  41. 47.
    Für die Ortsnennungen wurden keine Reaktionszeiten gemessen.Google Scholar
  42. 48.
    Auf die Funktion dieser Datei (Ortsliste) wird später noch genauer eingegangen.Google Scholar
  43. 49.
    Diese Erkenntnis war nicht nur eine logische Konsequenz, sondern wurde im Rahmen der Pretests geprüft.Google Scholar
  44. 50.
    Die Überleitung für die Testpersonen, die selbst Orte angegeben hatten, lautete: „Zum Abschluß möchten wir nun von Ihnen noch für zwei Orte wissen, wie beunruhigt Sie darüber sind, daß Ihnen dort etwas passiert.“; für die übrigen Personen lautete die Überleitung: „Sie persönlich haben keine Stellen in Konstanz als unsicher bezeichnet. Wir möchten Sie trotzdem bitten, für die folgenden beiden Orte anzugeben, wie sehr Sie zur Zeit darüber beunruhigt sind, daß Ihnen dort etwas passiert.”Google Scholar
  45. 51.
    Dieser Pretest wurde ebenfalls von Academic Data Gesellschaft für Umfragen, Methodenberatung und Analysen mbH durchgeführt. Der Pretest enthielt zwei experimentelle Variationen, die für die in dieser Arbeit behandelte Fragestellung nicht relevant sind. Sie werden hier nicht weiter erläutert.Google Scholar
  46. 52.
    Zum Verfahren vergleiche Schnell (1997b).Google Scholar
  47. 53.
    Auf der angegebenen Seite kann jede einzelne Frage der endgültigen Fragebogen-version mit einem Mausklick ausgewählt und ihre Entwicklung betrachtet werden. Der vollständige Fragebogen jeder Entwicklungsstufe kann ebenfalls ausgewählt werden.Google Scholar
  48. 54.
    Dazu gehört der Vergleich von Zufallsstichproben und Quotenerhebung, die Ermittlung von Instituts-, Interviewer-und Sampling-Point-Effekten und der Vergleich verschiedener Erhebungsmethoden.Google Scholar
  49. 55.
    Beteiligt waren infas Institut für angewandte Sozialwissenschaft GmbH (Bonn), foerster & thelen Marktforschung Feldservice GmbH (Bochum), inra Deutschland Gesellschaft für Markt-und Sozialforschung mbH (Mölln) und ACADEMIC DATA Gesellschaft für Umfragen, Methodenberatung und Analysen mbH (Essen). Die schriftliche Befragung wurde durch die DEFECT-Projektgruppe realisiert.Google Scholar
  50. 57.
    http://www.gesis.org/Datenservice/ALLBUS/Daten/index.htm; Stand 04.02Google Scholar
  51. 58.
    Die Mitglieder der Arbeitsgemeinschaft ADM-Stichproben hatten freundlicher- weise der Weitergabe einer Stichprobe von 160 Sampling-Points zugestimmt.Google Scholar
  52. 59.
    Die Haushaltsadressen und Namen der Zielhaushalte wurden bereits bei der Begehung maschinell erfasst. Zusätzlich wurden alle Straßen, in denen ein Random-Walk erfolgte, von den Begeherinnen entweder gefilmt oder fotografiert. Weiterhin wurde für jede Adresse ein Beobachtungsbogen über Sicherheitseinrichtungen (Alarmanlagen etc.), Gebäudeklassifikation und Umgebungsmerkmale (Wald, Graffiti, etc.) ausgefüllt.Google Scholar
  53. 61.
    Erläuterungen zu dieser Technik finden sich bei Schnell u. a. (1999: 267).Google Scholar
  54. 62.
    Binson u. a. (2000: 57–58) vermuten, dass unterschiedliche Ausfallraten während des Selektionsprozesses zwischen diesen beiden Auswahlverfahren und dem Verfahren des „next-birthday“ vor allem im Verhalten der Interviewer begründet sind. Da die Interviewerinnen, die in der DEFECT-Hauptstudie für die telefonische Erhebung eingesetzt wurden, überlicherweise mit der Methode des „last-birthday” arbeiten, wurde dieses Auswahlverfahren auch hier verwendet.Google Scholar
  55. 63.
    Straße oder Hausnummer gibt es nicht, Wohnung nicht bewohnt, Haushalt un- bekannt, Haushalt hat neue Adresse, keiner über 18, keiner spricht deutsch.Google Scholar
  56. 64.
    Der sukzessive Einsatz von Adressen war notwendig, da sonst aus dem gegebenen Adressen-Pool lediglich die gut erreichbaren und kooperativen Personen befragt worden wären, bis das vorgegebene Maximum von acht Interviews realisiert worden wäre.Google Scholar
  57. 65.
    Abweichungen von 100% sind auf Rundungen zurückzuführen. ZP steht als Abkürzung für Zielperson.Google Scholar
  58. 66.
    Die darin enthaltene Nachbearbeitungsphase begann bei Institut I in der ersten Kalenderwoche des Jahres 2000, bei Institut II am 28.01.2000.Google Scholar
  59. 67.
    Während Institut I jeden Kontaktversuch zusätzlich honorierte, forderte Institut II die Interviewer in der Nachbearbeitungsphase explizit dazu auf, auch die Adressen noch einmal anzugehen, bei denen Kontaktpersonen verweigert hatten. Institut I arbeitete zudem im Nacheinsatz mit einer größeren Zahl neuer Adressen.Google Scholar
  60. 68.
    finden, wobei die Interviewkontrolle bei Institut II einen besonderen 68 Bei Institut II fand eine telefonische Vollkontrolle aller Interviews statt, sofern für diese gültige Telefonnummern recherchiert werden konnten. Für 1.397 Adressen konnten 981 gültige Privatanschlüsse gefunden werden, von diesen wurden 939 auch tatsächlich erreicht. Bei 92% der Fälle (n = 868) der bereinigten Kontrollstichprobe hatte ein ordnungsgemäßes Interview stattgefunden. Von Institut II wurde telefonisch eine 25% Stichprobe kontrolliert und von der bereinigten Kontrollstichprobe 96, 5% als ordnungsgemäß durchgeführt klassifiziert. Damit liegt der Anteil nicht ordnungsgemäß durchgeführter Interviews bei Institut I bei 0.08, Konfidenzintervall 0.06–0.09; bei Institut II bei 0.03, K. 0.01–0.07. Die niedrigere Rate bei Institut I kann ein Stichprobeneffekt sein. Bemerkt werden muss aber, dass bei Institut II im Gegensatz zu Institut I explizit nach dem Modus des Interviews gefragt wurde. Schließt man die telefonischen Interviews aus, liegt der Anteil von Institut II bei 0.06, K. 0. 05–0. 08.Google Scholar
  61. 69.
    Von den 3200 Adressen enthielten 149 keinen Haushaltsnamen, diesen konnte keine Telefonnummer zugeordnet werden. Von den 2012 Telefonnummern wurden für 1972 Kontaktversuche unternommen.Google Scholar
  62. 70.
    Die Stichprobenziehung erfolgte durch die AWK-Macros von Schnell (1997b).Google Scholar
  63. 71.
    Somit wurden in einigen Sampling-Points keine RLD-Nummern verwendet.Google Scholar
  64. 72.
    Aufgrund eines Programm-Fehlers des Herstellers der CATI-Software (Ci3) wurden nur die Kontaktversuche 1–4 und der jeweilige letzte Kontaktversuch protokolliert.Google Scholar
  65. 73.
    Ein weiterer Programm-Fehler führte zum Verlust von zwei Kontaktprotokollen, so dass sich für zwei Interviews nicht mehr nachvollziehen lässt, ob es sich um RLD-Nummer handelte oder um eine gelieferte Adresse.Google Scholar
  66. 74.
    Davon waren 51 Adressen lediglich Beschreibungen der selektierten Wohnung und konnten nicht angeschrieben werden. Bei 49 enthielt die Adresse keinen Namen und die Briefe wurden „An die Bewohner“ verschickt, sofern aus den Begehungsunterlagen hervorging, dass es sich um ein Einfamilienhaus handelte.Google Scholar
  67. 75.
    Bei schriftlichen Befragungen kann es auch lange nach Beendigung der Feldzeit zu weiteren Rückmeldungen kommen. Tabelle 5.11 gibt den Endstatus vom 16.03.00 wieder.Google Scholar

Copyright information

© Springer Fachmedien Wiesbaden 2002

Authors and Affiliations

  • Frauke Kreuter
    • 1
  1. 1.KonstanzDeutschland

Personalised recommendations