Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Preview
Unable to display preview. Download preview PDF.
Literatur
Forneil (1987), S. 409.
Vgl. Atteslander (2000), S. 54.
Vgl. Schnell et al. (1999), S. 335–339.
Vgl. Tourangeau et al. (2000), S. 289–295.
Vgl. Friedrichs (1980), S. 224–254; Schnell et al. (1999), S. 299–334.
Vgl. Eggeling (2004).
Vgl. Friedrichs (1980), S. 224–235.
Vgl. Centre National de la Cinématographie (CNC) (2004a).
Vgl. Friedrichs (1980), S. 246–254. Friedrichs bezeichnet diese Art der Datenerhebung als Gruppendiskussion.
Vgl. Maritz Research (2004).
Vgl. Bauer und Wölfer (2001), S. 11–12; Ragger (2001), S. 34–35; Dillman (2000).
Vgl. Filmförderungsanstalt (FFA) (2003); Filmförderungsanstalt (FFA) (2004); Filmförderungsanstalt (FFA) (2006).
Vgl. Lütters (2004), S. 55–62.
Schonlau et al. (2001), S. 1.
Vgl. Weible und Wallace (1998), S. 20.
Vgl. Schnell et al. (1999), S. 297.
Vgl. Andrews et al. (2003), S. 186.
Schonlau et al. (2001); S. 74. Vgl. hierzu auch Manfreda et al. (2002)
Vgl. Craig und Douglas (2001), S. 87.
Coderre et al. (2004), S. 347.
Vgl. Grandcolas et al. (2003), S. 551. Vgl. hierzu auch Yun und Trumbo (2000), S. 1.
Grandcolas et al. (2003), S. 552.
Vgl. Morrel-Samuels (2003), S. 16.
Miller (2001), S. 33.
Teilweise wird angemerkt, dass eine mehrfache Teilnahme von Probanden an einer Umfrage bei Online-Befragungen generell leichter möglich ist als bei schriftlichen Befragungen (Duplizitätsproblem). Vgl. Bauer und Wölfer (2001), S. 17. Allerdings kann über das Setzen einer temporären Datei, eines sogenannten Cookies, die Mehrfachteilnahme deutlich erschwert werden. Dieser Weg wurde für die vorliegende Untersuchung gewählt. Ferner wird davon ausgegangen, dass Umfragen mit wenigen Fragen potentiell stärker von dem Phänomen betroffen sind. Das Problem des Mehrfachausfüllens eines Fragebogens, dessen Beantwortung — wie im vorliegenden Fall — 20 bis 25 Minuten in Anspruch nimmt, dürfte daher von nur geringer praktischer Relevanz sein.
Diekmann (1995), S. 216–217.
Vgl. Bauer und Wölfer (2001), S. 16.
Farrington (1973), S. 106.
Albers-Miller (1999), S. 278.
Einige Forscher sehen dies als nur eingeschränkt gegeben an. So wird zu bedenken gegeben, dass die Anonymität auch zu verzerrten Antworten fuhren kann. Vgl. Tourangeau et al. (2000), S. 269–270; Yun und Trumbo (2000).
Vgl. Theobald (2000), S. 100.
Vgl. Schillewaert et al. (1998), S. 309.
Vgl. Christian (2003), S. 5. Heerweg unterscheidet weiter nach Client-Side-und Server-Side-Paradata. Vgl. Heerwegh (2003), S. 372.
Bauer und Wölfer (2001), S. 9.
Vgl. Bosnjak und Tuten (2001), S. 2. (Technische) Voraussetzungen zum Erheben der Paradaten sind: (1) Screen-by-Screen Design, (2) Non-Restricted Questions, (3) Cache Passing Pages. Vgl. Bosnjak (2000), S. 2. Diese Anforderungen wurden im Online-Befragungstool der vorliegenden Arbeit (soweit sinnvoll) umgesetzt.
Vgl. Bandilla und Bosnjak (2000), S. 20. Für eine sehr ausführliche Analyse der Einsatzmöglichkeiten von Internet-Logfiles in der Marketingforschung siehe Bensberg (2001). Zum Thema Logfile-Analysen und Cookies siehe auch Janetzko (1999), S. 169–192.
Vgl. Schillewaert et al. (1998), S. 309. Lütters weist (zu Recht) darauf hin, dass eine Gesamtkostenbetrachtung erforderlich ist, die neben den variablen auch die fixen Kosten der Online-Befragung berücksichtigt. Er kommt zu dem Schluss, dass Online-Befragungen aus ökonomischen Gründen ab 100 Probanden sinnvoll sind. Vgl. Lütters (2004), S. 177–187.
Ilieva et al. (2002), S. 367.
Traugott (2003), S. 10.
Vgl. Farmer (1998); Cobanoglu et al. (2001), S. 441; Ilieva et al. (2002), S. 366; Granello und Wheaton (2004), S. 388. In Ausnahmefällen können fast 90 % aller Antworten in nur wenigen Tagen eingegangen sein. Vgl. Hays (1998), S. 13.
Vgl. Weible und Wallace (1998), S. 23; Schonlau et al. (2001), S. 2. Weitere Vorteile von Online-Befragungen sind die Asynchronität und die Alokalität: Insbesondere Online-Tauschbörsen sind meist spät abends bzw. nachts und am Wochenende gut besucht. Internetbasierte Befragungen unterliegen keinen zeitlichen und räumlichen Restriktionen, das heißt, sobald der Fragebogen online ausfullbar ist, können die Probanden den Zeitpunkt und Ort (beispielsweise, ob zu Hause, im Büro oder in einem Internetcafe) selbst bestimmen. Vgl. Böshenz (1999), S. 34–26; Bauer und Wölfer (2001), S. 15–16. Schillewaert et al. bezeichnen diesen Aspekt als „User Convenience“. Vgl. Schillewaert et al. (1998), S. 309.
Tourangeau et al. (2000), S. 257.
Fowler (1995), S. 28–29.
Fowler (1995), S. 30.
Vgl. Dommeyer (2000), S. 40.
Teilweise wird in diesem Zusammenhang kritisiert, dass Internetbefragungen unter einem Identitätsproblem leiden können. Hierunter versteht man die fehlende Kontrollmöglichkeit des Forschers, ob es sich bei dem Probanden beispielsweise tatsächlich um einen Filmpiraten handelt oder ob die Fragen aufs Geratewohl ausgefüllt werden. Die Anonymität könnte so zu unaufrichtigen Antworten fuhren, die die Datenqualität schmälern. Vgl. Lütters (2004), S. 141–144. Während das Problem bei keiner Form der anonymen, schriftlichen Befragung grundsätzlich vermeidbar ist, lässt sich die Problematik bei Online-Befragungen jedoch abschwächen, indem — wie in der vorliegenden Untersuchung — Kontrollfragen aufgenommen werden, die nachträgliche Plausibilitätsüberprüfungen ermöglichen.
Vgl. Bauer und Wölfer (2001), S. 15.
Joinson (2001), S. 189. Vgl. hierzu auch Granello und Wheaton (2004), S. 389.
Vgl. Coomber (1997); Taylor (2000), S. 53; Grandcolas et al. (2003), S. 542.
Vgl. Coomber (1997), S. 1.
Gupta et al. (2004), S. 261.
Diekmann (1995), S. 368–369.
Vgl. Lütters (2004), S. 127.
Vgl. Schumann (2000), S. 84.
Vgl. Diekmann (1995), S. 368–369.
Theobald (2000), S. 117.
Genau genommen ist das Panel repräsentativ für 63,7 Millionen deutsche Personen ab 10 Jahren. Vgl. Filmförderungsanstalt (FFA) (2004), S. 3.
Vgl. Schnell et al. (1999), S. 255–260. Zur Theorie der Zufallsstichprobe siehe auch Diekmann (1995), S. 347–354.
Vgl. Schumann (2000), S. 84.
Vgl. Lütters (2004), S. 129–132. Vgl. auch Ragger (2001), S. 119–120. Sind die Merkmalsausprägungen in der Grundgesamtheit bekannt, kann die Stichprobe — wie im Fall der vorliegenden Arbeit — darauf geprüft werden, ob eine Verzerrung vorliegt.
Lütters (2004), S. 140. Grundsätzlich könnte man eine Online-Befragung auch als Vollerhebung auslegen, die aufgrund der genannten Probleme zu einer „ungewollten“ Teilerhebung wird. „Bei der ungewollten Teilerhebung handelt es sich im Prinzip um eine Vollerhebung, bei der es aber nicht gelang, wirklich alle interessierenden Fälle einzubeziehen.... Ob das die Repräsentativität beeinträchtigt, hängt davon ab, ob und in welchem Umfang dadurch systematische Verzerrungen auftreten. In den meisten Fällen sind diese vernachlässigbar gering.“ Laatz (1993), S. 422. In der Forschungspraxis wird diese Argumentation bislang nicht aufgegriffen.
Andrews et al. (2003), S. 189. Auch Verfahren wie beispielsweise „N-Viz“, die nur jeden nten Besucher einer Internetseite ansprechen, ändern hieran nichts. Vgl. Theobald (2000), S. 37–40; Bauer und Wölfer (2001), S. 22–23; Pfleiderer (2003).
Yoffie (1998), S. 16.
Schonlau et al. (2001), S. 33.
Vgl. Schumann (2000), S. 83; Taylor (2000), S. 30. Hierbei wird stets nur auf den Auswahlprozess der Probanden abgestellt und nicht, ob deren Teilnahme freiwillig ist oder nicht.
Vgl. Taylor (2000), S. 52.
Fowler (2002), S. 53.
Vgl. Lütters (2004), S. 134.
Vgl. Fowler (2002), S. 56.
Schonlau et al. (2001), S. 34.
Schillewaert et al. (1998), S. 308.
Vgl. Andrews et al. (2003), S. 205.
Vgl. Theobald (2000), S. 118.
Vgl. Schnell et al. (1999), S. 272–273.
In einem Fall ließ die Angabe zur Methodik der Datenerhebung kein eindeutiges Urteil zu, ob es sich um ein Convenience Sample oder eine Quotenauswahl bzw. eine geschichtete Stichprobe handelt. Vgl. Online Testing Exchange (OTX) (2004).
Haug und Weber (2003b), S. 6.
Vgl. Schnell et al. (1999), S. 272.
Vgl. Filmförderungsanstalt (FFA) (2004), S. 20 bzw. S. 40.
Diekmann (1995), S. 368–369.
Vgl. Diekmann (1995), S. 357–364; Dillman und Bowker (2001), S. 160; Bosnjak (2002), S. 17–22.
Schonlau et al. (2001), S. 15.
Vgl. Schonlau et al. (2001), S. 15.
Schonlau et al. (2001), S. 13.
Teilweise wird unter der Inferenzpopulation auch die Population verstanden, auf die der Forscher aufgrund des Erhebungsdesigns tatsächlich schließen kann. Vgl. Schumann (2000), S. 85.
Vgl. Schnell et al. (1999), S. 253; Schumann (2000), S. 84–85.
Schonlau et al. (2001), S. 13. Vgl. auch Groves (1989), S. 82.
Vgl. Schumann (2000), S. 85; Schnell et al. (1999), S. 253.
Schonlau et al. (2001), S. 13. Vgl. hierzu auch Groves (1989), S. 82–83.
Vgl. Schumann (2000), S. 85.
Jolliffe (1986), S. 18–19.
Vgl. Dillman und Bowker (2001), S. 160. Für eine ausführliche analytische Herleitung und Beurteilung des Coverage Errors siehe Groves (1989), S. 84–132.
Vgl. Yun und Trumbo (2000).
Vgl. Schonlau et al. (2001), S. 28.
Vgl. Lütters (2004), S. 128.
Vgl. Craig und Douglas (2001), S. 88.
Coomber (1997), S. 2.
Dillman und Bowker (2001), S. 164.
Vgl. Fowler (2002), S. 13.
Vgl. GfK Panel Services Deutschland (2005).
Vgl. PricewaterhouseCoopers (2005), S. 57. Die für Filmdownloads besonders relevanten Breitband-Internetanschlüsse sind von 2003 auf 2004 um 43,6 % gewachsen; von 2004 auf 2005 wird mit einem weiteren Zuwachs von 28,6 % gerechnet.
Vgl. Henning (2004a). Die Zahlen lassen sich nicht unmittelbar aus der Quelle entnehmen, sondern wurden dem Autor auf Nachfrage freundlicherweise zur Verfügung gestellt.
Vgl. Groves (1989), S. 83; Schonlau et al. (2001), S. 14.
Vgl. Dillman (2000), S. 11; Dillman und Bowker (2001), S. 160.
Schonlau et al. (2001), S. 16.
Vgl. Diekmann (1995), S. 357–359. Bosnjak betrachtet Over-und Undercoverage als Folgen des Coverage Errors. Vgl. Bosnjak (2002), S. 17–19. In einer erweiterten Definition ist dem zuzustimmen. In einer engeren, in der vorliegenden Arbeit vertretenen Auffassung muss die Auswahlwahrscheinlichkeit einer Erhebungseinheit größer null sein, um über-bzw. unterrepräsentiert zu sein. Der Coverage Error geht jedoch von einer Auswahlwahrscheinlichkeit von null aus, so dass die Erhebungseinheit gar nicht vertreten ist.
Vgl. Dillman und Bowker (2001), S. 161.
Vgl. Dillman (2000), S. 11.
Grandcolas et al. (2003), S. 545.
Vgl. Sax et al. (2003), S. 412. Was früh, respektive spät, ist, obliegt — ebenso wie die Auswahl der relevanten Merkmale — der Einschätzung des Forschers. Vgl. hierzu auch Brettel (2004), S. 179 ff.
Grandcolas et al. (2003), S. 545.
Couper (2000), S. 475. Entsprechend Coupers Einschätzung wird auf diese Analyse in der vorliegenden Untersuchung verzichtet.
In der vorliegenden Arbeit wurde auf eine Gewichtung der Stichprobe verzichtet. Von einer (Design-)Gewichtung (auch „Propensity Scoring“ oder „Propensity Weighting“ genannt) spricht man, wenn über statistische Maßnahmen Sichtprobendesign bedingte Verzerrungen ausgeglichen werden (sollen). Vgl. Schumann (2000), S. 95. Oftmals erfolgt die Gewichtung erst nach der Stichprobenziehung in Form einer Nachgewichtung („Redressment“ oder „Post-Stratifying“), bei der beispielsweise auf der Basis der amtlichen Statistik die erhobene Stichprobe an bekannte Verteilungen der Grundgesamtheit angepasst wird. Vgl. Diekmann (1995), S. 365–367; Schonlau et al. (2001), S. 14. Anpassungsgrößen können zum Beispiel die demographischen Daten Alter und Geschlecht sein. Vgl. Taylor (2000), S. 54. Die Gewichtung von Stichproben, insbesondere die Nachgewichtung, ist eine umstrittene Prozedur, deren Wirksamkeit angezweifelt wird. Vgl. Schonlau et al. (2001), S. 80. Entsprechend wurde auf deren Anwendung verzichtet.
Für ein sehr anschauliches Framework zu den unterschiedlichen Non-Response und Drop-Out-Arten siehe Bosnjak(2002), S. 26.
Vgl. Couper (2000), S. 475.
Manfreda et al. (2002). Vgl. hierzu auch Dillman und Bowker (2001), S. 160.
Die beiden Bereiche sind nicht unabhängig voneinander zu sehen. Formale Mängel im Fragebogen können in erheblichem Maße zu Fehlinterpretationen durch die Befragten beitragen. Die Unterschiede zwischen den beiden Fehlerarten werden bei Groves sehr ausführlich erläutert. Vgl. Groves (1989), S. 407–500.
Vgl. Hauptmanns und Lander (2003), S. 35–37.
Vgl. Dommeyer (2000), S. 44. Siehe Kapitel 6.2.1 zur Behandlung unvollständiger Datensätze.
Fowler (1995), S. 31.
Vgl. Knapp und Heidingsfelder (1999), S. 1.
Knapp und Heidingsfelder (1999), S. 3.
Schonlau et al. (2001), S. 18.
Fowler (1995), S. vii.
Manfreda et al. (2002).
Vgl. Couper (2000), S. 476.
Vgl. Gunn (2002).
Prüfer und Rexroth (1996), S. 95. Prüfer und Rexroth beziehen sich auf Fragebögen allgemein.
Insgesamt wurden den Empfehlungen von Dillmans Total Design Methode entsprochen. Vgl. Dillman (2000), S. 27.
Andrews et al. (2003), 189.
Vgl. Esser (1986), S. 40.
Vgl. Laatz (1993), S. 149. Vgl. hierzu auch Cho und LaRose (1999), S. 431.
Vgl. Laatz (1993), S. 150–151. Laatz berichtet von den Ergebnissen eines Experiments, in dem unterschiedlich umfangreiche Datenschutzhinweise vor einer identischen Umfrage gegeben wurden. Hieraus lässt sich ableiten, dass die Teilnahmebereitschaft umso geringer ist, je ausführlicher der Datenschutzhinweis ausfällt. Laut Imhof ist die Datenschutzthematik dennoch wichtig, so dass ein Weglassen nicht zulässig ist. Vgl. Imhof (2003), S. 212–214.
Vgl. Fowler (1995), S. 13.
Vgl. Elgesem (2002), S. 198.
Vgl. Fowler (2002), S. 147–153. Fowler geht ausführlich auf die ethischen Verpflichtungen des Forschers gegenüber den Teilnehmern einer Umfrage ein.
Vgl. Joinson (2001), S. 590.
Vgl. Graf (1999), S. 169.
Dillman und Bowker (2001), S. 166.
Vgl. Schonlau et al. (2001), S. 42.
Dillman und Tortora (1998a), S. 4.
Vgl. Dillman und Bowker (2001), S. 165–171.
Vgl. Bauer und Wölfer (2001), S. 20.
Vgl. Schonlau et al. (2001), S. 42.
Miller (2001), S. 31.
Vgl. Manfreda et al. (2002).
Manfreda et al. (2002).
Andrews et al. (2003), S. 200.
Vgl. Bauer und Wölfer (2001), S. 20.
Vgl. Graf (1999), S. 165. Vgl. hierzu auch Jenkins und Dillman (1997).
Vgl. Dillman und Bowker (2001), S. 172–173.
Die Länge einer Frage und deren Eindeutigkeit aus der Perspektive der Umfrage-Teilnehmer stehen in einem Spannungsverhältnis. Vgl. Bradburn und Sudman (1991), S. 35–36. Im Fragebogen der vorliegenden Untersuchung wurde im Zweifel bei der Frageformulierung der Fokus auf Eindeutigkeit gelegt.
Vgl. Laatz (1993), S. 414; Smyth et al. (2004), S. 2.
Schumann (2000), S. 75. Schumann hierzu weiter: „Hat eine zu befragende Person erst einmal die ersten vier oder fünf Fragen beantwortet, dann wird das Interview normalerweise auch bis zum Schluss durchgeführt.“ Schumann (2000), S. 75.
Vgl. Frick et al. (1999), S. 4.
Vgl. Schumann (2000), S. 75.
Vgl. Schumann (2000), S. 75.
Vgl. Bosnjak (2002), S. 36–38.
Dillman und Tortora (1998a), S. 1.
Vgl. Deutskens et al. (2004), S. 29.
Vgl. Bauer und Wölfer (2001), S. 21.
Vgl. Witmer et al. (1999), S. 155.
Vgl. Laatz (1993), S. 149.
Vgl. Bosnjak (2002), S. 40.
Vgl. Laatz (1993), S. 124–125; Diekmann (1995), S. 410–413; Fowler (1995), S. 3–4; Porst (2000); Prüfer und Rexroth (2000), S. 204; Theobald (2000), S. 62.
Vgl. Schumann (2000), S. 67.
Krosnick (1999), S. 546. Vgl. hierzu auch Schumann (2000), S. 56.
Vgl. Maynitz et al. (1969), S. 110–111.
Vgl. Laatz (1993), S. 127.
Schonlau et al. (2001), S. 45.
Schumann (2000), S. 55–56.
Krosnick und Alwin (1987), S. 201. Vgl. hierzu auch Israel und Taylor (1990), S. 365.
Vgl. Laatz (1993), S. 135. Substraction effects and Comparision based effects sind weitere bekannte Kontexteffekte. Vgl. hierzu auch Dillman et al. (2003), S. 4–6.
Vgl. Dillman et al. (2003), S. 2. Krosnick und Alwin führen dies darauf zurück, dass „items presented early in a list are subjected to deeper cognitive processing“. Krosnick und Alwin (1987), S. 202–203. Verschiedene Formen und begünstigende Rahmenbedingungen werden im gleichen Beitrag ausführlich diskutiert.
Vgl. Laatz (1993), S. 135.
Vgl. Krosnick und Alwin (1987), S. 215.
Vgl. Laatz (1993), S. 137. Weiterhin regt Laatz an, die Fragen per Zufallsauswahl in ihrer Reihenfolge zu variieren. Hiervon wird in der vorliegenden Arbeit kein Gebrauch gemacht. Neben dem erheblichen technischen Risiko, dass die Befragungssoftware möglicherweise Antworten nicht richtig in die Datenbank übernimmt und die Umfrageergebnisse damit unbrauchbar macht, wird auch die Wirksamkeit der Zufallsauswahl insgesamt angezweifelt: „Many researchers try to avoid systematic order effects by reversing the order of response categories for one half of the sample; however, the research here suggests that order effects cannot be eliminated using this approach.“ Dillman et al. (2003), S. 27.
Vgl. Diekmann (1995), S. 209–215.
Vgl. Stier (1996), S. 82.
Vgl. Laatz (1993), S. 123.
Vgl. Vgl. Laatz (1993), S. 123; Diekmann (1995), S. 210.
Vgl. Schumann (2000), S. 59.
Vgl. Diekmann (1995), S. 411–412; Gräf (1999), S. 160–161. Hinsichtlich der Ausrichtung empfehlen einige Forscher, Items teilweise in umgekehrter Skalierungsrichtung (umgepolte oder reverse-coded Items) zu präsentieren. Vgl. Diekmann (1995), S. 210. Auf der Basis der Erfahrungen im Pre-Test wird hiervon jedoch in der Hauptdatenerhebung Abstand genommen: Einem Teil der Pre-Test Teilnehmer fiel die umgekehrte Skalierung nicht auf (Kontexteffekt) bzw. sie wurde als Fehler in der Frageformulierung interpretiert und (vermeintlich) „sinngemäß“ beantwortet. Eine Ausnahme hiervon stellt das Konstrukt „Konsum von Downloads/Kopien“ (Filmpiraterie) dar, welches — wie in Kapitel 4.3.5 erläutert — gemischt operationalisiert wird. Die Items zum legalen Filmkonsum müssen hier rekodiert werden. Die oben genannte Interpretationsproblematik tritt hier jedoch nicht auf, da die Daten zum legalen Filmkonsum und zur Filmpiraterie an semantisch und örtlich getrennten Stellen im Fragebogen erhoben werden.
Vgl. Laatz (1993), S. 133.
Schumann (2000), S. 68.
Vgl. Christian (2003), S. 11.
Vgl. Laatz (1993), S. 278.
Vgl. Laatz (1993), S. 133; Schumann (2000), S. 74.
Vgl. Schwarz und Hippler (1991), S. 45; Christian (2003), S. 13.
Krosnick und Fabrigar (1997), S. 148.
Vgl. Peterson (1994), S. 387.
Vgl. Laatz (1993), S. 133.
Vgl. Schumann (2000), S. 70.
Vgl. Alwin (1997), S. 321–323.
Peterson (1994), S. 390. Der höchste Alpha-Wert wird durch sieben Items erreicht.
Vgl. Krosnick und Fabrigar (1997), S. 145. Auch hier erreichen sieben Items die höchsten Reliabilitätswerte.
Vgl. Laatz (1993), S. 133; Krosnick und Fabrigar (1997), S. 145; Christian (2003), S. 12.
Laatz (1993), S. 139. Laatz weist ferner darauf hin, dass weit außen liegende Antwortmöglichkeiten innerhalb einer Skala oftmals als extrem wahrgenommen und daher nicht beantwortet werden. Auch diese Erkenntnis spricht dafür, nicht mehr als sieben Items zu verwenden. Vgl. Laatz (1993), S. 137.
Laatz (1993), S. 137.
Vgl. Peterson (1994), S. 387.
Krosnick (1999), S. 544.
Vgl. Laatz (1993), S. 139.
Christian (2003), S. 12.
Auf jeden Fall unzulässig ist es, „Keine Meinung“ als mittlere Antwortalternative zu verwenden. Vgl. Schumann (2000), S. 69.
Vgl. Christian (2003), S. 14–15.
Krosnick et al. (2002), S. 371. Vgl. hierzu auch Krosnick (1991), S. 228.
Vgl. Schwarz und Hippler (1991), S. 45–46.
Vgl. Prüfer und Rexroth (2000), S. 205.
Hunt et al. (1982), S. 270.
Schnell et al. (1999), S. 325. Vgl. hierzu auch Diekmann (1995), S. 415–416.
Vgl. Diekmann (1995), S. 415–416.
Vgl. Prüfer und Rexroth (2000), S. 206–218.
Vgl. Graf (1997a), S. 2–3.
Vgl. Hunt et al. (1982), S. 272.
Vgl. Diekmann (1995), S. 416.
Vgl. Prüfer und Rexroth (2000), S. 213.
Vgl. Fowler (1995), S. 115; Prüfer und Rexroth (1996), S. 98; Schumann (2000), S. 76.
Vgl. Schumann (2000), S. 76.
Laatz (1993), S. 279.
Vgl. Schonlau et al. (2001), S. 39–40.
Der Pre-Test erfolgte Mitte März 2005. Die Rekrutierung des Panels fand zwischen Oktober 2004 und März 2005 statt. Die Ähnlichkeit wurde auf der Grundlage der demographischen Daten der Sonderauswertung der Brennerstudie 3 sichergestellt. Vgl. GfK Panel Services Deutschland (2005).
Vgl. Schonlau et al. (2001), S. 51–52.
Granello und Wheaton (2004), S. 388.
Brennan et al. (1999), S. 5–6.
Vgl. Schonlau et al. (2001), S. 52.
Vgl. Lazar und Preece (1999), S. 65–66.
Vgl. Bauer und Wölfer (2001), S. 19.
Vgl. Schillewaert et al. (1998), S. 320.
Vgl. Lütters (2004), S. 78.
Alvarez und VanBeselaere (2004), S. 15.
Vgl. Schillewaert et al. (1998), S. 314–315.
Vgl. Laatz (1993), S. 430; Brettel (2004), S. 182 f.
Vgl. Laatz (1993), S. 430.
Vgl. Schnell et al. (1999), S. 280.
Vgl. Church (1993), S. 72.
Vgl. Frick et al (1999) s. 1.
Vgl. Tuten et al. (1999), S. 18; Porter und Whitcomb (2003), S. 393; Lütters (2004), S. 148–163.
Vgl. Cobanoglu und Cobanoglu (2003), S. 479.
Porter und Whitcomb (2003), S. 393.
Arbeitskreis Deutscher Markt-und Sozialforschungsinstitute e.V. (ADM) (2001), S. 4.
Knapp und Heidingsfelder (1999), S. 2. Vgl. auch Ilieva et al. (2002), S. 365.
Vgl. hierzu Schonlau et al. (2001), S. 49; Elgesem (2002), S. 200; Ilieva et al. (2002), S. 364–365; Andrews et al. (2003), S. 188.
Vgl. Ilieva et al. (2002), S. 366.
Vgl. Lütters (2004), S. 191.
Bauer und Wölfer (2001), S. 19.
Andrews et al. (2003), S. 203. Andrews et al. berichten darüber, dass im Zuge ihrer Befragung der Server der Umfrage zweimal gehackt wurde und die Forscher „negative comments“ zu ihrer Umfrage bekamen.
Becker (2004b), S. 101. Dies ist als sehr kritisch zu bezeichnen, da Becker infolgedessen die eigentlich für seine Analyse relevanten Nutzer von Online-Tauschbörsen von seiner Untersuchung ausschließt.
Vgl. Cho und LaRose (1999), S. 431–432. Cho und LaRose empfehlen eine Absprache mit den Moderatoren eines Forums.
Andrews et al. (2003), S. 207.
Rights and permissions
Copyright information
© 2006 Deutscher Universitäts-Verlag | GWV Fachverlage GmbH, Wiesbaden
About this chapter
Cite this chapter
(2006). Durchführung der Datenerhebung. In: Piraterie in der Filmindustrie. DUV. https://doi.org/10.1007/978-3-8350-9474-1_5
Download citation
DOI: https://doi.org/10.1007/978-3-8350-9474-1_5
Publisher Name: DUV
Print ISBN: 978-3-8350-0629-4
Online ISBN: 978-3-8350-9474-1
eBook Packages: Business and Economics (German Language)