Skip to main content

Durchführung der Datenerhebung

  • Chapter
Piraterie in der Filmindustrie
  • 1047 Accesses

Auszug

„The essence of research methodology is to advance understanding by combining theoretical knowledge with empirical knowledge“1041, stellt Forneil fest. Kapitel 5 befasst sich mit dem empirischen Teil der Forschungsmethodik.1042

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Chapter
USD 29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD 89.99
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
Softcover Book
USD 64.99
Price excludes VAT (USA)
  • Compact, lightweight edition
  • Dispatched in 3 to 5 business days
  • Free shipping worldwide - see info

Tax calculation will be finalised at checkout

Purchases are for personal use only

Institutional subscriptions

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Literatur

  1. Forneil (1987), S. 409.

    Google Scholar 

  2. Vgl. Atteslander (2000), S. 54.

    Google Scholar 

  3. Vgl. Schnell et al. (1999), S. 335–339.

    Google Scholar 

  4. Vgl. Tourangeau et al. (2000), S. 289–295.

    Google Scholar 

  5. Vgl. Friedrichs (1980), S. 224–254; Schnell et al. (1999), S. 299–334.

    Google Scholar 

  6. Vgl. Eggeling (2004).

    Google Scholar 

  7. Vgl. Friedrichs (1980), S. 224–235.

    Google Scholar 

  8. Vgl. Centre National de la Cinématographie (CNC) (2004a).

    Google Scholar 

  9. Vgl. Friedrichs (1980), S. 246–254. Friedrichs bezeichnet diese Art der Datenerhebung als Gruppendiskussion.

    Google Scholar 

  10. Vgl. Maritz Research (2004).

    Google Scholar 

  11. Vgl. Bauer und Wölfer (2001), S. 11–12; Ragger (2001), S. 34–35; Dillman (2000).

    Google Scholar 

  12. Vgl. Filmförderungsanstalt (FFA) (2003); Filmförderungsanstalt (FFA) (2004); Filmförderungsanstalt (FFA) (2006).

    Google Scholar 

  13. Vgl. Lütters (2004), S. 55–62.

    Google Scholar 

  14. Schonlau et al. (2001), S. 1.

    Google Scholar 

  15. Vgl. Weible und Wallace (1998), S. 20.

    Google Scholar 

  16. Vgl. Schnell et al. (1999), S. 297.

    Google Scholar 

  17. Vgl. Andrews et al. (2003), S. 186.

    Google Scholar 

  18. Schonlau et al. (2001); S. 74. Vgl. hierzu auch Manfreda et al. (2002)

    Google Scholar 

  19. Vgl. Craig und Douglas (2001), S. 87.

    Google Scholar 

  20. Coderre et al. (2004), S. 347.

    Google Scholar 

  21. Vgl. Grandcolas et al. (2003), S. 551. Vgl. hierzu auch Yun und Trumbo (2000), S. 1.

    Google Scholar 

  22. Grandcolas et al. (2003), S. 552.

    Google Scholar 

  23. Vgl. Morrel-Samuels (2003), S. 16.

    Google Scholar 

  24. Miller (2001), S. 33.

    Google Scholar 

  25. Teilweise wird angemerkt, dass eine mehrfache Teilnahme von Probanden an einer Umfrage bei Online-Befragungen generell leichter möglich ist als bei schriftlichen Befragungen (Duplizitätsproblem). Vgl. Bauer und Wölfer (2001), S. 17. Allerdings kann über das Setzen einer temporären Datei, eines sogenannten Cookies, die Mehrfachteilnahme deutlich erschwert werden. Dieser Weg wurde für die vorliegende Untersuchung gewählt. Ferner wird davon ausgegangen, dass Umfragen mit wenigen Fragen potentiell stärker von dem Phänomen betroffen sind. Das Problem des Mehrfachausfüllens eines Fragebogens, dessen Beantwortung — wie im vorliegenden Fall — 20 bis 25 Minuten in Anspruch nimmt, dürfte daher von nur geringer praktischer Relevanz sein.

    Google Scholar 

  26. Diekmann (1995), S. 216–217.

    Google Scholar 

  27. Vgl. Bauer und Wölfer (2001), S. 16.

    Google Scholar 

  28. Farrington (1973), S. 106.

    Google Scholar 

  29. Albers-Miller (1999), S. 278.

    Google Scholar 

  30. Einige Forscher sehen dies als nur eingeschränkt gegeben an. So wird zu bedenken gegeben, dass die Anonymität auch zu verzerrten Antworten fuhren kann. Vgl. Tourangeau et al. (2000), S. 269–270; Yun und Trumbo (2000).

    Google Scholar 

  31. Vgl. Theobald (2000), S. 100.

    Google Scholar 

  32. Vgl. Schillewaert et al. (1998), S. 309.

    Google Scholar 

  33. Vgl. Christian (2003), S. 5. Heerweg unterscheidet weiter nach Client-Side-und Server-Side-Paradata. Vgl. Heerwegh (2003), S. 372.

    Google Scholar 

  34. Bauer und Wölfer (2001), S. 9.

    Google Scholar 

  35. Vgl. Bosnjak und Tuten (2001), S. 2. (Technische) Voraussetzungen zum Erheben der Paradaten sind: (1) Screen-by-Screen Design, (2) Non-Restricted Questions, (3) Cache Passing Pages. Vgl. Bosnjak (2000), S. 2. Diese Anforderungen wurden im Online-Befragungstool der vorliegenden Arbeit (soweit sinnvoll) umgesetzt.

    Google Scholar 

  36. Vgl. Bandilla und Bosnjak (2000), S. 20. Für eine sehr ausführliche Analyse der Einsatzmöglichkeiten von Internet-Logfiles in der Marketingforschung siehe Bensberg (2001). Zum Thema Logfile-Analysen und Cookies siehe auch Janetzko (1999), S. 169–192.

    Google Scholar 

  37. Vgl. Schillewaert et al. (1998), S. 309. Lütters weist (zu Recht) darauf hin, dass eine Gesamtkostenbetrachtung erforderlich ist, die neben den variablen auch die fixen Kosten der Online-Befragung berücksichtigt. Er kommt zu dem Schluss, dass Online-Befragungen aus ökonomischen Gründen ab 100 Probanden sinnvoll sind. Vgl. Lütters (2004), S. 177–187.

    Google Scholar 

  38. Ilieva et al. (2002), S. 367.

    Google Scholar 

  39. Traugott (2003), S. 10.

    Google Scholar 

  40. Vgl. Farmer (1998); Cobanoglu et al. (2001), S. 441; Ilieva et al. (2002), S. 366; Granello und Wheaton (2004), S. 388. In Ausnahmefällen können fast 90 % aller Antworten in nur wenigen Tagen eingegangen sein. Vgl. Hays (1998), S. 13.

    Google Scholar 

  41. Vgl. Weible und Wallace (1998), S. 23; Schonlau et al. (2001), S. 2. Weitere Vorteile von Online-Befragungen sind die Asynchronität und die Alokalität: Insbesondere Online-Tauschbörsen sind meist spät abends bzw. nachts und am Wochenende gut besucht. Internetbasierte Befragungen unterliegen keinen zeitlichen und räumlichen Restriktionen, das heißt, sobald der Fragebogen online ausfullbar ist, können die Probanden den Zeitpunkt und Ort (beispielsweise, ob zu Hause, im Büro oder in einem Internetcafe) selbst bestimmen. Vgl. Böshenz (1999), S. 34–26; Bauer und Wölfer (2001), S. 15–16. Schillewaert et al. bezeichnen diesen Aspekt als „User Convenience“. Vgl. Schillewaert et al. (1998), S. 309.

    Google Scholar 

  42. Tourangeau et al. (2000), S. 257.

    Google Scholar 

  43. Fowler (1995), S. 28–29.

    Google Scholar 

  44. Fowler (1995), S. 30.

    Google Scholar 

  45. Vgl. Dommeyer (2000), S. 40.

    Google Scholar 

  46. Teilweise wird in diesem Zusammenhang kritisiert, dass Internetbefragungen unter einem Identitätsproblem leiden können. Hierunter versteht man die fehlende Kontrollmöglichkeit des Forschers, ob es sich bei dem Probanden beispielsweise tatsächlich um einen Filmpiraten handelt oder ob die Fragen aufs Geratewohl ausgefüllt werden. Die Anonymität könnte so zu unaufrichtigen Antworten fuhren, die die Datenqualität schmälern. Vgl. Lütters (2004), S. 141–144. Während das Problem bei keiner Form der anonymen, schriftlichen Befragung grundsätzlich vermeidbar ist, lässt sich die Problematik bei Online-Befragungen jedoch abschwächen, indem — wie in der vorliegenden Untersuchung — Kontrollfragen aufgenommen werden, die nachträgliche Plausibilitätsüberprüfungen ermöglichen.

    Google Scholar 

  47. Vgl. Bauer und Wölfer (2001), S. 15.

    Google Scholar 

  48. Joinson (2001), S. 189. Vgl. hierzu auch Granello und Wheaton (2004), S. 389.

    Google Scholar 

  49. Vgl. Coomber (1997); Taylor (2000), S. 53; Grandcolas et al. (2003), S. 542.

    Google Scholar 

  50. Vgl. Coomber (1997), S. 1.

    Google Scholar 

  51. Gupta et al. (2004), S. 261.

    Google Scholar 

  52. Diekmann (1995), S. 368–369.

    Google Scholar 

  53. Vgl. Lütters (2004), S. 127.

    Google Scholar 

  54. Vgl. Schumann (2000), S. 84.

    Google Scholar 

  55. Vgl. Diekmann (1995), S. 368–369.

    Google Scholar 

  56. Theobald (2000), S. 117.

    Google Scholar 

  57. Genau genommen ist das Panel repräsentativ für 63,7 Millionen deutsche Personen ab 10 Jahren. Vgl. Filmförderungsanstalt (FFA) (2004), S. 3.

    Google Scholar 

  58. Vgl. Schnell et al. (1999), S. 255–260. Zur Theorie der Zufallsstichprobe siehe auch Diekmann (1995), S. 347–354.

    Google Scholar 

  59. Vgl. Schumann (2000), S. 84.

    Google Scholar 

  60. Vgl. Lütters (2004), S. 129–132. Vgl. auch Ragger (2001), S. 119–120. Sind die Merkmalsausprägungen in der Grundgesamtheit bekannt, kann die Stichprobe — wie im Fall der vorliegenden Arbeit — darauf geprüft werden, ob eine Verzerrung vorliegt.

    Google Scholar 

  61. Lütters (2004), S. 140. Grundsätzlich könnte man eine Online-Befragung auch als Vollerhebung auslegen, die aufgrund der genannten Probleme zu einer „ungewollten“ Teilerhebung wird. „Bei der ungewollten Teilerhebung handelt es sich im Prinzip um eine Vollerhebung, bei der es aber nicht gelang, wirklich alle interessierenden Fälle einzubeziehen.... Ob das die Repräsentativität beeinträchtigt, hängt davon ab, ob und in welchem Umfang dadurch systematische Verzerrungen auftreten. In den meisten Fällen sind diese vernachlässigbar gering.“ Laatz (1993), S. 422. In der Forschungspraxis wird diese Argumentation bislang nicht aufgegriffen.

    Google Scholar 

  62. Andrews et al. (2003), S. 189. Auch Verfahren wie beispielsweise „N-Viz“, die nur jeden nten Besucher einer Internetseite ansprechen, ändern hieran nichts. Vgl. Theobald (2000), S. 37–40; Bauer und Wölfer (2001), S. 22–23; Pfleiderer (2003).

    Google Scholar 

  63. Yoffie (1998), S. 16.

    Google Scholar 

  64. Schonlau et al. (2001), S. 33.

    Google Scholar 

  65. Vgl. Schumann (2000), S. 83; Taylor (2000), S. 30. Hierbei wird stets nur auf den Auswahlprozess der Probanden abgestellt und nicht, ob deren Teilnahme freiwillig ist oder nicht.

    Google Scholar 

  66. Vgl. Taylor (2000), S. 52.

    Google Scholar 

  67. Fowler (2002), S. 53.

    Google Scholar 

  68. Vgl. Lütters (2004), S. 134.

    Google Scholar 

  69. Vgl. Fowler (2002), S. 56.

    Google Scholar 

  70. Schonlau et al. (2001), S. 34.

    Google Scholar 

  71. Schillewaert et al. (1998), S. 308.

    Google Scholar 

  72. Vgl. Andrews et al. (2003), S. 205.

    Google Scholar 

  73. Vgl. Theobald (2000), S. 118.

    Google Scholar 

  74. Vgl. Schnell et al. (1999), S. 272–273.

    Google Scholar 

  75. In einem Fall ließ die Angabe zur Methodik der Datenerhebung kein eindeutiges Urteil zu, ob es sich um ein Convenience Sample oder eine Quotenauswahl bzw. eine geschichtete Stichprobe handelt. Vgl. Online Testing Exchange (OTX) (2004).

    Google Scholar 

  76. Haug und Weber (2003b), S. 6.

    Google Scholar 

  77. Vgl. Schnell et al. (1999), S. 272.

    Google Scholar 

  78. Vgl. Filmförderungsanstalt (FFA) (2004), S. 20 bzw. S. 40.

    Google Scholar 

  79. Diekmann (1995), S. 368–369.

    Google Scholar 

  80. Vgl. Diekmann (1995), S. 357–364; Dillman und Bowker (2001), S. 160; Bosnjak (2002), S. 17–22.

    Google Scholar 

  81. Schonlau et al. (2001), S. 15.

    Google Scholar 

  82. Vgl. Schonlau et al. (2001), S. 15.

    Google Scholar 

  83. Schonlau et al. (2001), S. 13.

    Google Scholar 

  84. Teilweise wird unter der Inferenzpopulation auch die Population verstanden, auf die der Forscher aufgrund des Erhebungsdesigns tatsächlich schließen kann. Vgl. Schumann (2000), S. 85.

    Google Scholar 

  85. Vgl. Schnell et al. (1999), S. 253; Schumann (2000), S. 84–85.

    Google Scholar 

  86. Schonlau et al. (2001), S. 13. Vgl. auch Groves (1989), S. 82.

    Google Scholar 

  87. Vgl. Schumann (2000), S. 85; Schnell et al. (1999), S. 253.

    Google Scholar 

  88. Schonlau et al. (2001), S. 13. Vgl. hierzu auch Groves (1989), S. 82–83.

    Google Scholar 

  89. Vgl. Schumann (2000), S. 85.

    Google Scholar 

  90. Jolliffe (1986), S. 18–19.

    Google Scholar 

  91. Vgl. Dillman und Bowker (2001), S. 160. Für eine ausführliche analytische Herleitung und Beurteilung des Coverage Errors siehe Groves (1989), S. 84–132.

    Google Scholar 

  92. Vgl. Yun und Trumbo (2000).

    Google Scholar 

  93. Vgl. Schonlau et al. (2001), S. 28.

    Google Scholar 

  94. Vgl. Lütters (2004), S. 128.

    Google Scholar 

  95. Vgl. Craig und Douglas (2001), S. 88.

    Google Scholar 

  96. Coomber (1997), S. 2.

    Google Scholar 

  97. Dillman und Bowker (2001), S. 164.

    Google Scholar 

  98. Vgl. Fowler (2002), S. 13.

    Google Scholar 

  99. Vgl. GfK Panel Services Deutschland (2005).

    Google Scholar 

  100. Vgl. PricewaterhouseCoopers (2005), S. 57. Die für Filmdownloads besonders relevanten Breitband-Internetanschlüsse sind von 2003 auf 2004 um 43,6 % gewachsen; von 2004 auf 2005 wird mit einem weiteren Zuwachs von 28,6 % gerechnet.

    Google Scholar 

  101. Vgl. Henning (2004a). Die Zahlen lassen sich nicht unmittelbar aus der Quelle entnehmen, sondern wurden dem Autor auf Nachfrage freundlicherweise zur Verfügung gestellt.

    Google Scholar 

  102. Vgl. Groves (1989), S. 83; Schonlau et al. (2001), S. 14.

    Google Scholar 

  103. Vgl. Dillman (2000), S. 11; Dillman und Bowker (2001), S. 160.

    Google Scholar 

  104. Schonlau et al. (2001), S. 16.

    Google Scholar 

  105. Vgl. Diekmann (1995), S. 357–359. Bosnjak betrachtet Over-und Undercoverage als Folgen des Coverage Errors. Vgl. Bosnjak (2002), S. 17–19. In einer erweiterten Definition ist dem zuzustimmen. In einer engeren, in der vorliegenden Arbeit vertretenen Auffassung muss die Auswahlwahrscheinlichkeit einer Erhebungseinheit größer null sein, um über-bzw. unterrepräsentiert zu sein. Der Coverage Error geht jedoch von einer Auswahlwahrscheinlichkeit von null aus, so dass die Erhebungseinheit gar nicht vertreten ist.

    Google Scholar 

  106. Vgl. Dillman und Bowker (2001), S. 161.

    Google Scholar 

  107. Vgl. Dillman (2000), S. 11.

    Google Scholar 

  108. Grandcolas et al. (2003), S. 545.

    Google Scholar 

  109. Vgl. Sax et al. (2003), S. 412. Was früh, respektive spät, ist, obliegt — ebenso wie die Auswahl der relevanten Merkmale — der Einschätzung des Forschers. Vgl. hierzu auch Brettel (2004), S. 179 ff.

    Google Scholar 

  110. Grandcolas et al. (2003), S. 545.

    Google Scholar 

  111. Couper (2000), S. 475. Entsprechend Coupers Einschätzung wird auf diese Analyse in der vorliegenden Untersuchung verzichtet.

    Google Scholar 

  112. In der vorliegenden Arbeit wurde auf eine Gewichtung der Stichprobe verzichtet. Von einer (Design-)Gewichtung (auch „Propensity Scoring“ oder „Propensity Weighting“ genannt) spricht man, wenn über statistische Maßnahmen Sichtprobendesign bedingte Verzerrungen ausgeglichen werden (sollen). Vgl. Schumann (2000), S. 95. Oftmals erfolgt die Gewichtung erst nach der Stichprobenziehung in Form einer Nachgewichtung („Redressment“ oder „Post-Stratifying“), bei der beispielsweise auf der Basis der amtlichen Statistik die erhobene Stichprobe an bekannte Verteilungen der Grundgesamtheit angepasst wird. Vgl. Diekmann (1995), S. 365–367; Schonlau et al. (2001), S. 14. Anpassungsgrößen können zum Beispiel die demographischen Daten Alter und Geschlecht sein. Vgl. Taylor (2000), S. 54. Die Gewichtung von Stichproben, insbesondere die Nachgewichtung, ist eine umstrittene Prozedur, deren Wirksamkeit angezweifelt wird. Vgl. Schonlau et al. (2001), S. 80. Entsprechend wurde auf deren Anwendung verzichtet.

    Google Scholar 

  113. Für ein sehr anschauliches Framework zu den unterschiedlichen Non-Response und Drop-Out-Arten siehe Bosnjak(2002), S. 26.

    Google Scholar 

  114. Vgl. Couper (2000), S. 475.

    Google Scholar 

  115. Manfreda et al. (2002). Vgl. hierzu auch Dillman und Bowker (2001), S. 160.

    Google Scholar 

  116. Die beiden Bereiche sind nicht unabhängig voneinander zu sehen. Formale Mängel im Fragebogen können in erheblichem Maße zu Fehlinterpretationen durch die Befragten beitragen. Die Unterschiede zwischen den beiden Fehlerarten werden bei Groves sehr ausführlich erläutert. Vgl. Groves (1989), S. 407–500.

    Google Scholar 

  117. Vgl. Hauptmanns und Lander (2003), S. 35–37.

    Google Scholar 

  118. Vgl. Dommeyer (2000), S. 44. Siehe Kapitel 6.2.1 zur Behandlung unvollständiger Datensätze.

    Google Scholar 

  119. Fowler (1995), S. 31.

    Google Scholar 

  120. Vgl. Knapp und Heidingsfelder (1999), S. 1.

    Google Scholar 

  121. Knapp und Heidingsfelder (1999), S. 3.

    Google Scholar 

  122. Schonlau et al. (2001), S. 18.

    Google Scholar 

  123. Fowler (1995), S. vii.

    Google Scholar 

  124. Manfreda et al. (2002).

    Google Scholar 

  125. Vgl. Couper (2000), S. 476.

    Google Scholar 

  126. Vgl. Gunn (2002).

    Google Scholar 

  127. Prüfer und Rexroth (1996), S. 95. Prüfer und Rexroth beziehen sich auf Fragebögen allgemein.

    Google Scholar 

  128. Insgesamt wurden den Empfehlungen von Dillmans Total Design Methode entsprochen. Vgl. Dillman (2000), S. 27.

    Google Scholar 

  129. Andrews et al. (2003), 189.

    Google Scholar 

  130. Vgl. Esser (1986), S. 40.

    Google Scholar 

  131. Vgl. Laatz (1993), S. 149. Vgl. hierzu auch Cho und LaRose (1999), S. 431.

    Google Scholar 

  132. Vgl. Laatz (1993), S. 150–151. Laatz berichtet von den Ergebnissen eines Experiments, in dem unterschiedlich umfangreiche Datenschutzhinweise vor einer identischen Umfrage gegeben wurden. Hieraus lässt sich ableiten, dass die Teilnahmebereitschaft umso geringer ist, je ausführlicher der Datenschutzhinweis ausfällt. Laut Imhof ist die Datenschutzthematik dennoch wichtig, so dass ein Weglassen nicht zulässig ist. Vgl. Imhof (2003), S. 212–214.

    Google Scholar 

  133. Vgl. Fowler (1995), S. 13.

    Google Scholar 

  134. Vgl. Elgesem (2002), S. 198.

    Google Scholar 

  135. Vgl. Fowler (2002), S. 147–153. Fowler geht ausführlich auf die ethischen Verpflichtungen des Forschers gegenüber den Teilnehmern einer Umfrage ein.

    Google Scholar 

  136. Vgl. Joinson (2001), S. 590.

    Google Scholar 

  137. Vgl. Graf (1999), S. 169.

    Google Scholar 

  138. Dillman und Bowker (2001), S. 166.

    Google Scholar 

  139. Vgl. Schonlau et al. (2001), S. 42.

    Google Scholar 

  140. Dillman und Tortora (1998a), S. 4.

    Google Scholar 

  141. Vgl. Dillman und Bowker (2001), S. 165–171.

    Google Scholar 

  142. Vgl. Bauer und Wölfer (2001), S. 20.

    Google Scholar 

  143. Vgl. Schonlau et al. (2001), S. 42.

    Google Scholar 

  144. Miller (2001), S. 31.

    Google Scholar 

  145. Vgl. Manfreda et al. (2002).

    Google Scholar 

  146. Manfreda et al. (2002).

    Google Scholar 

  147. Andrews et al. (2003), S. 200.

    Google Scholar 

  148. Vgl. Bauer und Wölfer (2001), S. 20.

    Google Scholar 

  149. Vgl. Graf (1999), S. 165. Vgl. hierzu auch Jenkins und Dillman (1997).

    Google Scholar 

  150. Vgl. Dillman und Bowker (2001), S. 172–173.

    Google Scholar 

  151. Die Länge einer Frage und deren Eindeutigkeit aus der Perspektive der Umfrage-Teilnehmer stehen in einem Spannungsverhältnis. Vgl. Bradburn und Sudman (1991), S. 35–36. Im Fragebogen der vorliegenden Untersuchung wurde im Zweifel bei der Frageformulierung der Fokus auf Eindeutigkeit gelegt.

    Google Scholar 

  152. Vgl. Laatz (1993), S. 414; Smyth et al. (2004), S. 2.

    Google Scholar 

  153. Schumann (2000), S. 75. Schumann hierzu weiter: „Hat eine zu befragende Person erst einmal die ersten vier oder fünf Fragen beantwortet, dann wird das Interview normalerweise auch bis zum Schluss durchgeführt.“ Schumann (2000), S. 75.

    Google Scholar 

  154. Vgl. Frick et al. (1999), S. 4.

    Google Scholar 

  155. Vgl. Schumann (2000), S. 75.

    Google Scholar 

  156. Vgl. Schumann (2000), S. 75.

    Google Scholar 

  157. Vgl. Bosnjak (2002), S. 36–38.

    Google Scholar 

  158. Dillman und Tortora (1998a), S. 1.

    Google Scholar 

  159. Vgl. Deutskens et al. (2004), S. 29.

    Google Scholar 

  160. Vgl. Bauer und Wölfer (2001), S. 21.

    Google Scholar 

  161. Vgl. Witmer et al. (1999), S. 155.

    Google Scholar 

  162. Vgl. Laatz (1993), S. 149.

    Google Scholar 

  163. Vgl. Bosnjak (2002), S. 40.

    Google Scholar 

  164. Vgl. Laatz (1993), S. 124–125; Diekmann (1995), S. 410–413; Fowler (1995), S. 3–4; Porst (2000); Prüfer und Rexroth (2000), S. 204; Theobald (2000), S. 62.

    Google Scholar 

  165. Vgl. Schumann (2000), S. 67.

    Google Scholar 

  166. Krosnick (1999), S. 546. Vgl. hierzu auch Schumann (2000), S. 56.

    Google Scholar 

  167. Vgl. Maynitz et al. (1969), S. 110–111.

    Google Scholar 

  168. Vgl. Laatz (1993), S. 127.

    Google Scholar 

  169. Schonlau et al. (2001), S. 45.

    Google Scholar 

  170. Schumann (2000), S. 55–56.

    Google Scholar 

  171. Krosnick und Alwin (1987), S. 201. Vgl. hierzu auch Israel und Taylor (1990), S. 365.

    Google Scholar 

  172. Vgl. Laatz (1993), S. 135. Substraction effects and Comparision based effects sind weitere bekannte Kontexteffekte. Vgl. hierzu auch Dillman et al. (2003), S. 4–6.

    Google Scholar 

  173. Vgl. Dillman et al. (2003), S. 2. Krosnick und Alwin führen dies darauf zurück, dass „items presented early in a list are subjected to deeper cognitive processing“. Krosnick und Alwin (1987), S. 202–203. Verschiedene Formen und begünstigende Rahmenbedingungen werden im gleichen Beitrag ausführlich diskutiert.

    Google Scholar 

  174. Vgl. Laatz (1993), S. 135.

    Google Scholar 

  175. Vgl. Krosnick und Alwin (1987), S. 215.

    Google Scholar 

  176. Vgl. Laatz (1993), S. 137. Weiterhin regt Laatz an, die Fragen per Zufallsauswahl in ihrer Reihenfolge zu variieren. Hiervon wird in der vorliegenden Arbeit kein Gebrauch gemacht. Neben dem erheblichen technischen Risiko, dass die Befragungssoftware möglicherweise Antworten nicht richtig in die Datenbank übernimmt und die Umfrageergebnisse damit unbrauchbar macht, wird auch die Wirksamkeit der Zufallsauswahl insgesamt angezweifelt: „Many researchers try to avoid systematic order effects by reversing the order of response categories for one half of the sample; however, the research here suggests that order effects cannot be eliminated using this approach.“ Dillman et al. (2003), S. 27.

    Google Scholar 

  177. Vgl. Diekmann (1995), S. 209–215.

    Google Scholar 

  178. Vgl. Stier (1996), S. 82.

    Google Scholar 

  179. Vgl. Laatz (1993), S. 123.

    Google Scholar 

  180. Vgl. Vgl. Laatz (1993), S. 123; Diekmann (1995), S. 210.

    Google Scholar 

  181. Vgl. Schumann (2000), S. 59.

    Google Scholar 

  182. Vgl. Diekmann (1995), S. 411–412; Gräf (1999), S. 160–161. Hinsichtlich der Ausrichtung empfehlen einige Forscher, Items teilweise in umgekehrter Skalierungsrichtung (umgepolte oder reverse-coded Items) zu präsentieren. Vgl. Diekmann (1995), S. 210. Auf der Basis der Erfahrungen im Pre-Test wird hiervon jedoch in der Hauptdatenerhebung Abstand genommen: Einem Teil der Pre-Test Teilnehmer fiel die umgekehrte Skalierung nicht auf (Kontexteffekt) bzw. sie wurde als Fehler in der Frageformulierung interpretiert und (vermeintlich) „sinngemäß“ beantwortet. Eine Ausnahme hiervon stellt das Konstrukt „Konsum von Downloads/Kopien“ (Filmpiraterie) dar, welches — wie in Kapitel 4.3.5 erläutert — gemischt operationalisiert wird. Die Items zum legalen Filmkonsum müssen hier rekodiert werden. Die oben genannte Interpretationsproblematik tritt hier jedoch nicht auf, da die Daten zum legalen Filmkonsum und zur Filmpiraterie an semantisch und örtlich getrennten Stellen im Fragebogen erhoben werden.

    Google Scholar 

  183. Vgl. Laatz (1993), S. 133.

    Google Scholar 

  184. Schumann (2000), S. 68.

    Google Scholar 

  185. Vgl. Christian (2003), S. 11.

    Google Scholar 

  186. Vgl. Laatz (1993), S. 278.

    Google Scholar 

  187. Vgl. Laatz (1993), S. 133; Schumann (2000), S. 74.

    Google Scholar 

  188. Vgl. Schwarz und Hippler (1991), S. 45; Christian (2003), S. 13.

    Google Scholar 

  189. Krosnick und Fabrigar (1997), S. 148.

    Google Scholar 

  190. Vgl. Peterson (1994), S. 387.

    Google Scholar 

  191. Vgl. Laatz (1993), S. 133.

    Google Scholar 

  192. Vgl. Schumann (2000), S. 70.

    Google Scholar 

  193. Vgl. Alwin (1997), S. 321–323.

    Google Scholar 

  194. Peterson (1994), S. 390. Der höchste Alpha-Wert wird durch sieben Items erreicht.

    Google Scholar 

  195. Vgl. Krosnick und Fabrigar (1997), S. 145. Auch hier erreichen sieben Items die höchsten Reliabilitätswerte.

    Google Scholar 

  196. Vgl. Laatz (1993), S. 133; Krosnick und Fabrigar (1997), S. 145; Christian (2003), S. 12.

    Google Scholar 

  197. Laatz (1993), S. 139. Laatz weist ferner darauf hin, dass weit außen liegende Antwortmöglichkeiten innerhalb einer Skala oftmals als extrem wahrgenommen und daher nicht beantwortet werden. Auch diese Erkenntnis spricht dafür, nicht mehr als sieben Items zu verwenden. Vgl. Laatz (1993), S. 137.

    Google Scholar 

  198. Laatz (1993), S. 137.

    Google Scholar 

  199. Vgl. Peterson (1994), S. 387.

    Google Scholar 

  200. Krosnick (1999), S. 544.

    Google Scholar 

  201. Vgl. Laatz (1993), S. 139.

    Google Scholar 

  202. Christian (2003), S. 12.

    Google Scholar 

  203. Auf jeden Fall unzulässig ist es, „Keine Meinung“ als mittlere Antwortalternative zu verwenden. Vgl. Schumann (2000), S. 69.

    Google Scholar 

  204. Vgl. Christian (2003), S. 14–15.

    Google Scholar 

  205. Krosnick et al. (2002), S. 371. Vgl. hierzu auch Krosnick (1991), S. 228.

    Google Scholar 

  206. Vgl. Schwarz und Hippler (1991), S. 45–46.

    Google Scholar 

  207. Vgl. Prüfer und Rexroth (2000), S. 205.

    Google Scholar 

  208. Hunt et al. (1982), S. 270.

    Google Scholar 

  209. Schnell et al. (1999), S. 325. Vgl. hierzu auch Diekmann (1995), S. 415–416.

    Google Scholar 

  210. Vgl. Diekmann (1995), S. 415–416.

    Google Scholar 

  211. Vgl. Prüfer und Rexroth (2000), S. 206–218.

    Google Scholar 

  212. Vgl. Graf (1997a), S. 2–3.

    Google Scholar 

  213. Vgl. Hunt et al. (1982), S. 272.

    Google Scholar 

  214. Vgl. Diekmann (1995), S. 416.

    Google Scholar 

  215. Vgl. Prüfer und Rexroth (2000), S. 213.

    Google Scholar 

  216. Vgl. Fowler (1995), S. 115; Prüfer und Rexroth (1996), S. 98; Schumann (2000), S. 76.

    Google Scholar 

  217. Vgl. Schumann (2000), S. 76.

    Google Scholar 

  218. Laatz (1993), S. 279.

    Google Scholar 

  219. Vgl. Schonlau et al. (2001), S. 39–40.

    Google Scholar 

  220. Der Pre-Test erfolgte Mitte März 2005. Die Rekrutierung des Panels fand zwischen Oktober 2004 und März 2005 statt. Die Ähnlichkeit wurde auf der Grundlage der demographischen Daten der Sonderauswertung der Brennerstudie 3 sichergestellt. Vgl. GfK Panel Services Deutschland (2005).

    Google Scholar 

  221. Vgl. Schonlau et al. (2001), S. 51–52.

    Google Scholar 

  222. Granello und Wheaton (2004), S. 388.

    Google Scholar 

  223. Brennan et al. (1999), S. 5–6.

    Google Scholar 

  224. Vgl. Schonlau et al. (2001), S. 52.

    Google Scholar 

  225. Vgl. Lazar und Preece (1999), S. 65–66.

    Google Scholar 

  226. Vgl. Bauer und Wölfer (2001), S. 19.

    Google Scholar 

  227. Vgl. Schillewaert et al. (1998), S. 320.

    Google Scholar 

  228. Vgl. Lütters (2004), S. 78.

    Google Scholar 

  229. Alvarez und VanBeselaere (2004), S. 15.

    Google Scholar 

  230. Vgl. Schillewaert et al. (1998), S. 314–315.

    Google Scholar 

  231. Vgl. Laatz (1993), S. 430; Brettel (2004), S. 182 f.

    Google Scholar 

  232. Vgl. Laatz (1993), S. 430.

    Google Scholar 

  233. Vgl. Schnell et al. (1999), S. 280.

    Google Scholar 

  234. Vgl. Church (1993), S. 72.

    Google Scholar 

  235. Vgl. Frick et al (1999) s. 1.

    Google Scholar 

  236. Vgl. Tuten et al. (1999), S. 18; Porter und Whitcomb (2003), S. 393; Lütters (2004), S. 148–163.

    Google Scholar 

  237. Vgl. Cobanoglu und Cobanoglu (2003), S. 479.

    Google Scholar 

  238. Porter und Whitcomb (2003), S. 393.

    Google Scholar 

  239. Arbeitskreis Deutscher Markt-und Sozialforschungsinstitute e.V. (ADM) (2001), S. 4.

    Google Scholar 

  240. Knapp und Heidingsfelder (1999), S. 2. Vgl. auch Ilieva et al. (2002), S. 365.

    Google Scholar 

  241. Vgl. hierzu Schonlau et al. (2001), S. 49; Elgesem (2002), S. 200; Ilieva et al. (2002), S. 364–365; Andrews et al. (2003), S. 188.

    Google Scholar 

  242. Vgl. Ilieva et al. (2002), S. 366.

    Google Scholar 

  243. Vgl. Lütters (2004), S. 191.

    Google Scholar 

  244. Bauer und Wölfer (2001), S. 19.

    Google Scholar 

  245. Andrews et al. (2003), S. 203. Andrews et al. berichten darüber, dass im Zuge ihrer Befragung der Server der Umfrage zweimal gehackt wurde und die Forscher „negative comments“ zu ihrer Umfrage bekamen.

    Google Scholar 

  246. Becker (2004b), S. 101. Dies ist als sehr kritisch zu bezeichnen, da Becker infolgedessen die eigentlich für seine Analyse relevanten Nutzer von Online-Tauschbörsen von seiner Untersuchung ausschließt.

    Google Scholar 

  247. Vgl. Cho und LaRose (1999), S. 431–432. Cho und LaRose empfehlen eine Absprache mit den Moderatoren eines Forums.

    Google Scholar 

  248. Andrews et al. (2003), S. 207.

    Google Scholar 

Download references

Rights and permissions

Reprints and permissions

Copyright information

© 2006 Deutscher Universitäts-Verlag | GWV Fachverlage GmbH, Wiesbaden

About this chapter

Cite this chapter

(2006). Durchführung der Datenerhebung. In: Piraterie in der Filmindustrie. DUV. https://doi.org/10.1007/978-3-8350-9474-1_5

Download citation

Publish with us

Policies and ethics