Advertisement

Kommerzielle Publikumsforschung

  • Michael HofsässEmail author
  • Dirk Engel
  • Lena Kellerwessel
Living reference work entry
Part of the Springer Reference Sozialwissenschaften book series (SRS)

Zusammenfassung

Dieser Beitrag berichtet über die betriebswirtschaftliche Relevanz der Media- und Marktforschung. Gleichzeitig sollen den akademischen Forschern Hinweise über die erhobenen Daten geben werden, die für wissenschaftliche Zwecke durchaus nutzbar sind. Medien bewegen sich, neben Diversifikationsgeschäften (vgl. Tropp und Baetzgen in diesem Kapitel), in zwei Märkten: Dem Markt der Nutzer und dem der Werbekunden. Für letzteren sind die verlässlichen Daten über das Publikum wichtig, denn sie bilden die Grundlage für die Mediaplanung und damit für die Entscheidungen, in welche Werbeträger Werbungtreibende ihr Geld aufwenden. Es ist üblich, dass die Werbevermarkter ihre Leistung gegenüber ihren Auftraggebern nachweisen müssen. Da es zu einem Prinzipal-Agent-Konflikt (hat die Agentur wirklich die Werbegelder des Auftraggebers richtig investiert?) kommt, ist eine nachvollziehbare und gemeinschaftlich durch alle Marktpartner initiierte Erhebung dieser Daten notwendig. Dies wird durch Joint-Industry-Committees (JICs) gewährleistet. Die Mediaforschung ist eine sehr ausdifferenzierte Form der Sozial- und Marktforschung und arbeitet mit hohen methodischen Standards. Hier sind in erster Linie Media-Studien wichtig, da sie für die jeweiligen Mediengattungen vergleichbare Reichweiten und Strukturdaten für Werbeträger liefern, die im Werbemarkt als Währung akzeptiert sind. Hinzu kommen Markt-Media-Studien (die neben Mediennutzung auch Konsumverhalten und psychografische Zielgruppenmerkmale erheben) und die Werbestatistik für Auflagen und Werbeaufwendungen. Bei den Media- und Markt-Media-Studien kommen spezielle und gattungsadäquate Methoden zum Einsatz, über die in den JICs entschieden wird. Diese Daten werden für die Mediaplanung (vgl. Hofsäss und Engel in diesem Handbuch) und die Gestaltung der Werbepreise herangezogen. Ergänzend dazu werden sie für andere Zwecke eingesetzt, z. B. für Marketing- und Vertriebsmaßnahmen im Nutzermarkt. Um Werbekunden zu überzeugen, setzen Medienvermarkter noch eine Vielzahl anderer Studien ein. So gewinnen Untersuchungen zur Werbewirkung zunehmend an Bedeutung, was an der Digitalisierung und der besseren Verfügbarkeit von digitalen Daten liegt. Moderne statistische Analyseverfahren (Modelling) und automatisierte Prozesse (Predictive Analytics) übernehmen so auch Funktionen der etablierten, auf Reichweiten und Strukturen fokussierten Mediaforschung. Neben den Werbevermarktern und den JICs betreiben Werbe- und Mediaagenturen Publikums- und Werbewirkungsforschung, um einen Mehrwehrt für ihre Auftraggeber, die Werbungtreibenden, zu bieten. Neue digitale Kommunikationsformen und der dynamische Wandel im Mediengeschäft führen dazu, dass die klassischen Methoden der Mediaforschung durch andere Techniken und Datenlieferanten ergänzt werden, was den Einfluss der durch JICs organisierten Forschungsinstitutionen beeinträchtigt. Andererseits bilden sie die zurzeit beste Garantie für Transparenz und Verlässlichkeit, um den Prinzipal-Agent-Konflikt zu lösen. Die Dynamik des sich weiter digitalisierenden und ausdifferenzierenden Medienmarktes führt mittelfristig zu weiteren Anpassungen der Mediaforschungsmethoden, langfristig sind größere Umbrüche nicht auszuschließen.

Schlüsselwörter

Mediaforschung Werbewirkungsforschung Werbestatistik Werbemarkt Media-Analysen 

1 Einleitung: Aufgaben und Probleme der Mediaforschung im Überblick

Der Begriff „kommerzielle Publikumsforschung“ wurde ausgewählt, um sich von der wissenschaftlichen und akademischen Medien- und Kommunikationsforschung abzugrenzen. Diese untersucht zwar auch das Medienpublikum in vielfältiger Weise, doch stehen das Erkenntnisinteresse und die Mehrung des wissenschaftlichen Wissens im Vordergrund. Die kommerzielle Publikumsforschung hat hingegen einen konkreten betriebswirtschaftlichen Zweck: Sie liefert Informationen über Medien und deren Publikum, um betriebswirtschaftliche Entscheidungen in einem konkreten Markt zu fällen (vgl. Bruhn 2016). Medien bewegen sich dabei auf zwei Märkten – dem Markt der Nutzer oder Medienkonsumenten (also dem Vertriebsmarkt) und dem Werbemarkt (vgl. Kiefer und Steininger 2013, S. 18). Daten und Informationen über die Mediennutzer sind für beide Märkte wichtig. Die Medienanbieter müssen ihr Publikum und seine (demografische) Struktur kennen, um die richtigen Angebote bereitzustellen. Gleichzeitig müssen sie ihren Werbekunden ihre Leistung nachweisen, die in erster Linie darin besteht, dass die richtigen Zielgruppen durch das Medienangebot erreicht werden. Im Gegensatz zur herkömmlichen Marktforschung für Konsum- und Investitionsgüter hat also die Publikumsforschung für Medien zwei Funktionen: Sie liefert einerseits Marktdaten für die eigene Produkt- und Absatzplanung und andererseits zielgruppenspezifische Leistungsdaten für die Werbewirtschaft. Letzteres geschieht durch eine von allen Marktpartnern akzeptierte „Währung“, mit der unterschiedliche Werbeträger in ihrer Leistung mehr oder weniger vergleichbar gemacht werden (vgl. Hollerbach-Zenz 2012). Dieser Bereich der kommerziellen Publikumsforschung wird im deutschsprachigen Raum als Mediaforschung bezeichnet. Damit grenzt sie sich sprachlich von der – meist akademischen – Medienforschung ab, die sich wissenschaftlich mit Medien (Inhalten, Nutzung, Organisation und Struktur, philosophischen Aspekten etc.) beschäftigt. Mediaforschung im engeren Sinn erforscht Medien immer im Zusammenhang mit deren Funktion als Werbeträger. Im Englischen ist dieser Unterschied verwischt, da beide Arten als „Media Research“ bezeichnet werden.

Mediaforschung hängt eng mit dem praktischen Nutzen der durch sie erhobenen Daten zusammen, weshalb man sie nicht ohne den Bezug zur Mediaplanung verstehen und erklären kann. Deshalb steht dieses Kapitel in enger Wechselwirkung zu dem Kap. „Media Planung“ in diesem Handbuch. Die pragmatische Frage, welches Kapitel zuerst gelesen werden sollte, ist schwierig, weil beide Kapitel in vielfältiger Weise aufeinander Bezug nehmen. Die Autoren glauben, dass es trotzdem sinnvoller ist, mit dem Kapitel zur „Media Planung“ zu beginnen und sich dann erst dieses Kapitel über die kommerzielle Publikumsforschung vorzunehmen – ggf. mit einem fallweise „Zurückblättern“ zum Mediaplanungskapitel.

Für das Erheben, Auswerten und Bereitstellen der Daten für die Mediaplanung werden alleine in Deutschland jedes Jahr zweistellige Millionensummen ausgegeben. Die Mediaforschung ist damit der wichtigste Teil der kommerziellen Publikumsforschung: Sie ermittelt die Reichweiten und Strukturen der Werbeträger, die sie den Werbungtreibenden und ihren Dienstleistern (Mediaagenturen) zur Verfügung stellt. Diese verwenden die Daten für die Mediaplanung, also die Auswahl der geeigneten Werbeträger, um die Konsumenten mit Werbebotschaften zu erreichen. Die Medienanbieter und Werbevermarkter ziehen diese Daten zurate, um ihre Werbepreise und Tarife festzusetzen und sie gegenüber den Kunden zu rechtfertigen.

Neben der auf den Werbemarkt ausgerichteten Mediaforschung gibt es noch einen weiteren Bereich der kommerziellen Publikumsforschung, die sich mit dem Markt der Mediennutzer beschäftigt. Werbefreie oder gebührenfinanzierte Medienangebote möchten ebenfalls etwas über ihr Publikum erfahren, um deren Bedürfnisse besser zu befriedigen. Viele der Daten der kommerziellen Mediaforschung werden auch zu diesem Zwecke genutzt – allen voran die Daten der Fernsehforschung, die ursprünglich zur präziseren Programmplanung erhoben wurden und erst später für die Werbung eingesetzt wurden (vgl. Schulz und Schneller 2009). Doch gibt es noch viele weitere Arten dieser redaktionellen Forschung:
  • Die Analyse von technisch erhobenen Nutzerdaten (Web-Analytics) bei online-basierten Medienangeboten (Websites, digitales Pay-TV), also z. B. Zugriffs- oder Download-Statistiken.

  • Kundenbefragungen, die herausfinden, wie die Nutzer von Medienangeboten mit diesen zufrieden sind bzw. wie man diese verbessern könne.

  • Marktforschung, um neue Angebote zu entwickeln oder zu testen, z. B. neue Zeitschriftentitel oder Fernsehserien

Diese redaktionelle Forschung passiert – im Gegensatz zur Mediaforschung – hinter verschlossenen Türen. Die Ergebnisse sind zwar für die unternehmerischen Entscheidungen wichtig, werden aber selbstredend als Betriebsgeheimnis angesehen und nicht veröffentlicht. Es mag Ausnahmen geben, bei dem sich Medienunternehmen oder deren Marktforschungsinstitute mit entsprechenden Case Studies für ihre eigene Öffentlichkeitsarbeit nutzen. Trotzdem ist dieses Feld der kommerziellen Forschung schwer einzusehen und bedient sich oft der gängigen Methoden der Marktforschung, die in anderen Branchen Verwendung finden und deshalb keine besondere medienökonomische Relevanz besitzen (vgl. Kuß et al. 2014). In diesem Aufsatz wird deshalb der Schwerpunkt auf die Mediaforschung und den Werbemarkt gelegt.

Bemerkungen zur Literaturlage

Was die Literatur zum Thema Media- und Publikumsforschung betrifft, so gelten hier die gleichen Anmerkungen wie beim Kap. „Media Planung“. Früher wurde der methodische Fortschritt in Monografien und Artikeln gut dokumentiert. Hier sei vor allem das hervorragende und heute noch lesenswerte Buch „Die Leser“ von Eva-Maria Hess erwähnt (1996). Einen guten Überblick über die Entwicklung der Mediaforschung bis zu Beginn des Jahrtausends liefert Schulz (vgl. Schulz und Schneller 2009). Eine schier unüberschaubare Vielzahl an Fakten und Details sammelte über viele Jahre das „Focus-Lexikon“ (vgl. Koschnick 2003), das leider nicht mehr aktualisiert wird und auch nicht mehr auf der Website des früheren Herausgebers Burda Communication Network (BCN) online verfügbar ist (das gilt ebenso für die Sonderbände zur Mediaforschung in Österreich und der Schweiz, vgl. Koschnick 2004a, b). Eine praxisorientierte Einführung in Mediaforschung und Mediaplanung ist das „Praxishandbuch Mediaplanung“ der Autoren (vgl. Hofsäss und Engel 2003). Die umfassendste Darstellung aus kommunikationswissenschaftlicher Sicht liefert Frey-Vor et al. (2008), mit vielen Informationen zu der Mediaforschung in Österreich und der Schweiz.

Da alle neuen Entwicklungen in der Mediaforschung sich nur verstehen lassen, wenn man eine Vorstellung davon hat, wie sie sich geschichtlich entwickelt haben, ist eine Lektüre dieser älteren Werke immer noch lohnend. Um aber den aktuellen Stand der Methoden und Diskussionen kennenzulernen, ist eine Recherche von vielfältigen Internet-Quellen notwendig. Neben den bereits im Kap. „Media Planung“ genannten Web-Versionen der gängigen Fach- und Branchenzeitschriften, handelt es sich dabei vor allem um die (oft flüchtigen und interessengebundenen) Darstellungen von Unternehmen und Organisationen. Sie sind zwar nicht als objektive, wissenschaftliche Quellen zu werten, liefern aber derzeit die einzige Möglichkeit, genauere und aktuelle Informationen zu vielen der hier beschriebenen Themen zu bekommen. Studierende und Forschende sollten darüber hinaus keine Hemmungen haben, die beteiligten Akteure direkt anzusprechen, wenn es um weitergehende Informationen geht – besonders die offiziellen Institutionen (in Deutschland: agma, AGF, AGOF, IVW; in Österreich: ARGE, AGTT; in der Schweiz: Mediapulse, WEMF) sind erfahrungsgemäß gerne bereit, die wissenschaftliche Lehre und Forschung zu unterstützen. Aspekte der kommerziellen Publikumsforschung sind nur gelegentlich Thema in Aufsätzen in wissenschaftlichen Journalen. Hier seien vor allem zwei Publikationen genannt, die hier eine Ausnahme bilden. Die Fachzeitschrift MedienWirtschaft bemüht sich, aktuelle Entwicklungen aufzugreifen (vgl. www.medienwirtschaft-online.de). Die Zeitschrift Media Perspektiven (Hrsg. ARD-Werbung) bewegt sich bewusst an der Nahtstelle von Wissenschaft und Vermarktung (ein Vorteil ist, dass die jüngsten Jahrgänge kostenfrei online verfügbar sind, vgl. www.ard-werbung.de/media-perspektiven/). Beides sind wichtige Quellen. Außerdem sei noch die Zeitschrift Transfer zu erwähnen, die von der Deutschen Werbewissenschaftlichen Gesellschaft herausgegeben wird, die insbesondere aktuelle Beiträge zum Thema Werbewirkung liefert (vgl. www.transfer-zeitschrift.net/home/).

Das Verhältnis zwischen Wissenschaft und kommerzieller Publikumsforschung

Eine strikte Trennung zwischen wissenschaftlicher und kommerzieller Publikumsforschung, wie sie im ersten Abschnitt dieses Beitrags suggeriert wurde, ist in der Realität nicht möglich. Wissenschaftliche Methoden, Modelle und Erkenntnisse fließen mannigfaltig in die kommerzielle Marktforschung ein. Auch argumentieren Werbevermarkter nicht selten mit wissenschaftlichen Erkenntnissen für ihre Werbeträger. Sie sind des Weiteren oft Partner bei universitären Drittmittelprojekten. Auf der anderen Seite nutzen Hochschulvertreter die Daten der Mediaforschung für wissenschaftliche Analysen. Studien, wie die „Langzeitanalyse Massenkommunikation“, deren Herausgeber (ARD und ZDF) gleichermaßen die wissenschaftliche Grundlagenforschung wie die Nutzung zur Vermarktung von TV- und Radio-Angeboten anstreben (vgl. Krupp und Breunig 2016), belegen die gemeinsamen Interessen. In anderen Ländern ist eine Verzahnung zwischen kommerzieller und akademischer Forschung ebenfalls gängig – man denke nur an die oft sehr praxisbezogene Werbewirkungsforschung in den USA (hier sei als Beispiel nur die Arbeit der Advertising Research Foundation ARF erwähnt, vgl. https://thearf.org/). Die Darstellung der kommerziellen Publikumsforschung im Handbuch Medienökonomie verfolgt damit zwei Zwecke: Zum einen informiert sie über die betriebswirtschaftliche Relevanz der Media- und Marktforschung. Zum anderen möchte sie den akademischen Forschern Hinweise über die erhobenen Daten geben, die für wissenschaftliche Zwecke durchaus nutzbar sind. Wissenschaft und Praxis können sich auf vielfältige Weise bei der Erforschung von Mediennutzung und Werbewirkung befruchten.

Funktionen und Herausforderungen der kommerziellen Publikumsforschung

Im Kapitel zur Mediaplanung (in diesem Handbuch) wurde ausgiebig über die Akteure in der Werbebranche berichtet und die Besonderheiten des Dreiecksverhältnisses zwischen Werbungtreibenden (Auftraggeber), Werbevermarktern und den Agenturen besprochen. Dort wird der sich aus diesem Dreieck ergebende Grundkonflikt diskutiert: Hat das in Werbemaßnahmen aufgewendete Geld dem Werbungtreibenden tatsächlich den größten Nutzen gebracht? Dies ist ein klassisches Beispiel für einen Prinzipal-Agent-Konflikt (vgl. Nienstedt und Weissner 2009). Er führt zu der Forderung der Werbungtreibenden, dass die Medienanbieter ihre Leistung nachweisen müssen, und zwar auf eine Weise, die einen Vergleich zwischen verschiedenen Anbietern zulassen. In Deutschland, Österreich und der Schweiz erfolgt dieser Leistungsnachweis durch die Mediaforschung – mit einem hohen Grad an Vergleichbarkeit für die Werbeträger innerhalb einer Mediengattung und einem eingeschränkten zwischen den Gattungen. Um die Vergleichbarkeit zu gewährleisten, geschieht Mediaforschung in Zusammenarbeit aller Marktpartner (Medienanbieter und Vermarkter, Werbungtreibende und Agenturen) und erhält so ihren Währungscharakter (vgl. Frey-Vor et al. 2008). Organisiert wird dies in Verbänden (den sogenannten Joint Industries Committees JIC), in denen alle Marktpartner vertreten sind. Wobei die Anwender der Daten – also die Werbungtreibenden und Agenturen – einen besonderen Einfluss ausüben. Wichtigste Organisation dieser Art ist in Deutschland die Arbeitsgemeinschaft Media-Analyse (agma), die als zentraler „Währungshüter“ aller klassischen Mediengattungen fungiert und die ma Intermedia herausgibt, in der auch TV-Daten integriert sind. Mit der ma assoziiert sind die Arbeitsgemeinschaft Videoforschung (AGF Videoforschung) und die Arbeitsgemeinschaft Online-Forschung (AGOF), die sich jeweils speziell um die Gattungen Fernsehen und Online-Medien kümmern.

Die Mediaforschung verwendet Methoden der empirischen Sozialforschung, die kontinuierlich verfeinert werden, um der dynamischen Entwicklung der Mediennutzung und der technologischen Entwicklungen Rechnung zu tragen. Neben Umfragen werden heute eine Vielzahl von technischen Messmethoden und statistischen Verfahren (z. B. Datenfusion) angewandt. Ebenso wird mit unterschiedlichen Stichproben (z. B. Quoten- und Random-Stichproben, Panels, Online Access-Panels etc.) gearbeitet. Für die wichtigen Mediengattungen gibt es eigene, regelmäßig veröffentlichte Media-Studien, die Reichweiten und Strukturen liefern. Sie stehen den Media-Agenturen in speziellen Zählprogrammen zur Verfügung, die diese Studien für ihre Analysen zur Mediaplanung nutzen. Die meisten dieser Studien werden unter dem Dach der agma veröffentlicht: Es gibt eine ma (Media-Analyse) für Pressemedien, eine für Radio und eine für Plakat. Die ma Online wird in Zusammenarbeit mit der AGOF herausgegeben. Eine Sonderstellung hat die AGF Videoforschung, die die Reichweitendaten für TV von der GfK-Fernsehforschung erheben lässt, mit der agma aber assoziiert ist.

Mediaforschung als „heimliche Hauptsache“

Im Werbemarkt kommt den Daten der Mediaforschung eine wichtige ökonomische Funktion zu. Siegert spricht von der „heimlichen Hauptsache“ (vgl. Siegert 1993). Heimlich deswegen, da die meisten Mediennutzer nichts davon ahnen, wie bedeutsam die bei ihnen erhobenen Einschaltquoten und Lektüregewohnheiten für millionenschwere Entscheidungen sind. Hauptsache werden sie dadurch, dass Investitionsentscheidungen von Werbungtreibenden, Agenturen und Medienunternehmen davon abhängen. Deshalb stehen alle Entscheidungen über die Methoden der Mediaforschung in einem Spannungsfeld: Zum einen geht es darum, korrekte und möglichst wissenschaftliche Methoden zu finden, um die Mediennutzung so genau wie möglich abzubilden. Zum anderen haben aber alle methodischen Entscheidungen einen direkten Einfluss auf die Ergebnisse – und damit mittelbar auf die Werbeaufwendungen, die als Aufwandsentscheidungen im Werbemarkt getätigt werden. Anders ausgedrückt: Wenn sich beispielsweise die Erhebung der Zeitschriftennutzung methodisch ändert (anstatt eines rein mündlichen Interviews wird ein Laptop zum „Selbstbedienen“ eingesetzt), ändern sich auch die Reichweiten (weil bestimmte Bevölkerungssegmente – vielleicht durch Angst vor der Technik – mehr oder weniger bereit sind, sich auf die neue Interviewsituation einzulassen). Bei veränderten Reichweiten gibt es wahrscheinlich Gewinner und Verlierer – z. B. Zeitschriften, die durch die neue Erhebungsmethode (und die nun besser oder schlechter erreichten Publikumssegmente) Leser gewinnen oder verlieren. Objektiv gesehen hat sich die Leserschaft nicht verändert, doch durch die neue Messung werden bestimmte Segmente besser oder schlechter abgebildet. Solche Effekte gibt es in jeder Art von empirischer Sozialforschung – doch in der Mediaforschung haben sie einen direkten Einfluss auf die nachgewiesene Leistung und damit auf Preise, Tarife und die Chance, in einen Mediaplan aufgenommen zu werden.

Diese Situation birgt einen ständigen Herd an Konflikten, die im schlimmsten Fall mit Rechtsstreitereien enden (z. B., wenn in den Verkaufsunterlagen ein Verlag behauptet, seine Zeitschrift hätte mehr Leser als die des Wettbewerbers). Um diese so gering wie möglich zu halten (ganz verhindern kann man sie wohl niemals), ist das Prinzip der gemeinsamen Konsensfindung so wichtig. Alle Beteiligten müssen in den Entscheidungsprozess eingebunden werden und haben ein Mitspracherecht. Die gefundenen Lösungen basieren damit nicht nur auf rein fachlich-wissenschaftlichen Kriterien, sondern auch auf einem ausgehandelten Konsens, der die unterschiedlichen Interessen versucht, unter einen Hut zu bringen. Das hat zwei Nachteile, die in der Branche immer wieder zu Kritik führen: Erstens dauern Entscheidungsprozesse lange – und hinken dadurch der immer dynamischer werdenden Medientechnologie hinterher. Zweitens erscheint manche beschlossene Konvention dem einen oder anderen Marktpartner als „fauler“ Kompromiss. Allerdings haben die Werbungtreibenden bei dem gesamten Verfahren eine kritische Position – gegen ihre Interessen darf im Grunde nicht entschieden werden, schließlich sind es ihre Werbegelder, die die Einkünfte der Medienanbieter bilden und damit mittelbar die Mediaforschung finanzieren. Deshalb funktioniert das System der gemeinschaftlichen Mediaforschung alles in allem sehr gut – die erhobenen Daten werden vom überwiegenden Teil des Marktes als Währung akzeptiert und nicht grundsätzlich in Frage gestellt (vgl. Krohn und Niesel 2014). Gelegentliche Unstimmigkeiten, z.B. der Streit zwischen Radiosendern und Audio-Streaming-Anbietern im Zusammenhang mit der ma Audio (vgl. Horizont 2018b) ändern daran nichts. Doch ist anzunehmen, dass es in Zukunft immer schwerer werden wird, hier einen Konsens zu finden – dazu mehr am Ende dieses Kapitels.

Neue Felder – und Probleme – der Publikumsforschung

Eine andere Herausforderung der gemeinschaftlichen Mediaforschung besteht darin, dass die erhobenen Reichweiten- und Strukturdaten nicht mehr den gesamten Bereich der Marketing- und Werbekommunikation abbilden. Unsere Medienlandschaft ist einem kontinuierlichen Wandel unterzogen, der sich vielfältig ausprägt (vgl. Kappes et al. 2017). Die Digitalisierung führte zu neuen Kommunikationsformen und Medienangeboten, die immer schwerer mit der klassischen Vorstellung von Werbeträgern in Deckung zu bringen sind. Nicht immer ist klar, wie wesentlich diese neuen Kommunikationsformen langfristig sein werden: Gewinnen sie an Bedeutung oder sind sie lediglich Modeerscheinungen, die schnell wieder verschwinden? Da das System der gemeinschaftlichen Mediaforschung aus den oben beschriebenen Gründen nur langsam auf neue Entwicklungen im Medienmarkt eingehen kann, etablieren sich jenseits davon neue, schnellere Erhebungsmethoden. Doch das führt wiederum zu den ursprünglichen Problemen von Transparenz und Vertrauen – neue Daten werden zwar mangels Alternativen im Alltag der Mediaplanung benötigt, doch ist eine Vergleichbarkeit und Zuverlässigkeit wie bei den „offiziellen“ Mediawährungen nicht gegeben. Einem außenstehenden Beobachter erscheinen die Diskussionen in der Werbebranche deshalb manchmal recht widersprüchlich (vgl. Horizont 2018a): Zum einen werden manche durchaus zweifelhaften Datenquellen mitunter sorglos genutzt, zum anderen wird Transparenz und Nachprüfbarkeit eingefordert. Gleichzeitig werden aber diejenigen Unternehmen mit der als mangelhaft wahrgenommenen Datentransparenz (wie z. B. die US-Konzerne Facebook und Google) nicht abgestraft, sondern zunehmend gebucht (vgl. Horizont 2016a). Die Währungshüter (also agma, AGOF und AGF) werden andererseits dafür kritisiert, dass sie nur langsam Fortschritte machen – wobei übersehen wird, dass sie über keine Druckmittel verfügen, um diejenigen der Marktteilnehmer, die mit intransparenten oder nicht-vergleichbaren Daten aufwarten, abzustrafen – im Gegensatz zu den Werbungtreibenden, die immerhin bei unzureichenden Leistungsnachweisen ihre Werbegelder verweigern können.

Auch wenn für die neuen Felder der Marketing-Kommunikation noch keine Lösungen für eine gemeinschaftliche Mediaforschung gefunden wurde, sollen sie hier zumindest aufgelistet werden, um für die derzeitigen und kommenden Probleme zu sensibilisieren.

Content Marketing

Content Marketing ist die Veröffentlichung kundenspezifisch relevanter Informations- oder Unterhaltungsangebote durch ein Unternehmen, um potenzielle Kunden anzusprechen, ohne dabei verkäuferische oder werbliche Botschaften zu enthalten. Vielmehr sollen die Nutzer unabhängig von Kaufabsichten ihre Informations- und Unterhaltungsbedürfnisse befriedigen und dadurch eine Beziehung zum Unternehmen aufbauen, die sich langfristig auszahlen soll (vgl. Löffler 2014). Beispiele für relevante Inhalte können Ratgeberseiten oder Unterhaltungsangebote sein, nützliche Informationen oder die Vermittlung von speziellem Wissen. Content Marketing verknüpft unterschiedliche Kanäle; Websites des Unternehmens werden mit sozialen Medien verbunden, Blogs, Facebook-Pages oder YouTube-Channels werden eingesetzt. Jenseits des Internets kann Content Marketing auch mit Hilfe von Kundenzeitschriften oder klassischer Medien und PR stattfinden. Social Media meint alle Aktivitäten und Maßnahmen, die nutzerzentriert oder bewusst gesteuert auf entsprechenden Media Plattformen (zum Beispiel Facebook) ablaufen. Ein anderer wichtiger Begriff ist „Owned Media“, meist definiert als alle Aktivitäten, die von einem Unternehmen oder einer Marke selbst zur Kommunikation mit den Konsumenten eingesetzt werden und über die es die volle Kontrolle hat. Dazu gehört die eigene Website, Seiten in sozialen Netzwerken wie YouTube oder Facebook, eigene Smartphone-Apps, aber auch Kundenmagazine, Prospekte oder die Gestaltung des eigenen Ladens.

Anders ausgedrückt besteht die Grundidee des Content Marketings darin, dass Marken die Funktion von Medien übernehmen. Dadurch werden Daten über die Nutzung relevant – eine Aufgabe für Web Analytics und Marktforschung, für die die Unternehmen selbst verantwortlich sind, die eine Content-Marketing-Strategie verfolgen. Doch fehlen bei solchen internen Forschungsaktivitäten die Vergleichbarkeit und die Qualitätskontrollen der offiziellen Mediaforschung. Die Frage nach der Wirksamkeit von Content-Marketing, im Sinne der Werbewirkung stellt sich ebenfalls und wird kritisch diskutiert, ohne dass es dabei einfache Lösungen zu geben scheint.

Influencer Marketing

Eine mittlerweile in der Werbepraxis gängige Einteilung klassifiziert Medien als „Paid“, „Owned“ und „Earned“ Media (vgl. Young 2010). Bezahlte Mediawerbung subsumiert man unter „Paid Media“. Die Kanäle, die in alleiniger Verantwortung der Werbungtreibenden stehen (z. B. die Website oder das Kundenmagazin), gelten als „Owned Media“. Schwieriger ist es, „Earned Media“ zu definieren. In der Regel sind damit solche Kanäle gemeint, die nicht direkt oder durch Bezahlung von dem werbenden Unternehmen beeinflussbar sind – so z. B. Weiterempfehlungen von Konsumenten, Erwähnungen von Journalisten oder die „organische“, nicht bezahlte Position im Ergebnis einer Suchmaschine. Auf diese lässt sich zwar indirekt mit Marketing-Maßnahmen einwirken (z. B. mit Word-of-Mouth-Marketing, PR und Suchmaschinenoptimierung), doch kann man sich hier weder optimale Kommentare noch Wunschplatzierungen gezielt kaufen. Eine in vieler Hinsicht schwierige Grauzone ist das seit 2017/2018 sehr populäre „Influencer Marketing“. Als Influencer bezeichnet man Menschen, die auf sozialen Netzwerken (vor allem YouTube, Twitter und Instagram) regelmäßig Beiträge (Videos, Podcasts, Fotos oder Texte) veröffentlichen und damit eine eigene Gefolgschaft gewinnen konnten. Influencer Marketing bedeutet, diese Menschen für die eigenen Marketing-Aktivitäten einzusetzen, wobei das in vielfältiger Weise geschehen kann – von der unentgeltlichen Zurverfügungstellung von Gratisproben bis hin zu bezahlten Erwähnungen und Inszenierungen von Marken. Relevant ist es für bestimmte Marken, da sehr junge Internetnutzer ein großes Interesse an solchen Influencern haben und die Verwendung von Marken dort kein unübliches Thema ist – insbesondere im Zusammenhang mit den beliebten Themengebieten Computer, Gaming, Schönheit, Ernährung und Reisen. Die Frage, wie mit dieser Vermischung von bezahlten Leistungen und redaktionellen Inhalten umzugehen ist, wird von allen Seiten – teilweise kontrovers – diskutiert (vgl. Horizont 2018c). Im Grunde handelt es sich aber nur um einen Spezialfall von Social-Media-Marketing.

Social Media

Was in Social Media passiert, ist sowohl für die werbenden Unternehmen wie auch für Medienanbieter bedeutsam. Denn ob ein Beitrag gefällt (mit einem „Like“ versehen wird) oder positiv kommentiert wird, sagt etwas über die Relevanz der Botschaft für die Zielgruppe aus – wenn auch nicht immer klar ist, wie man dies interpretieren soll. Das Weiterleiten von markenbezogenen Beiträgen wiederum kann die Reichweite einer Kampagne erhöhen. Hier spricht man von „organischer Reichweite“, da sie nicht durch bezahlte Platzierungen zu Stande kommt. Gleichzeitig gibt es aber ebenfalls bezahlte Platzierungen auf denselben Plattformen – deren Reichweite weisen die Betreiber durch ihre Web-Analytics-Instrumente nach. Die Statistiken für Profil- und Fan-Pages oder -Accounts in Netzwerken werden ebenso durch Web Analytics erfasst – allerdings immer nur für eine Plattform, was die Daten schwer vergleichbar macht. Paid, Owned und Earned Media bedienen sich also denselben Plattformen – das macht Netzwerke wie Facebook, Twitter, YouTube und Instagram so wichtig für Werbungtreibende (vgl. Schmidt 2018).

Neben Web Analytics gibt es noch das Social Media Monitoring. Da Produkt- oder Unternehmens-Beurteilungen auf sozialen Medien deren Image beeinflussen kann, ist es relevant, die entsprechenden Diskussionen im Social Web zu beobachten. Diese Beobachtung nennt man Social Media Monitoring (oder „Social Media Listening“) und sie wird von einer Vielzahl von Anbietern im deutschen und internationalen Kontext angeboten. Über definierte Schlagwörter (Keywords) für das Monitoring kann festgestellt werden, wer wo und wann Meinungen zu einem Produkt, einer Marke oder einem Unternehmen in welcher Tonalität (negativ, positiv, neutral) abgegeben hat. Dabei geht es um den „Social Media Buzz“, also die Intensität und Tonalität, mit der im Social Web über eine Marke geredet wird, was ebenso Zufriedenheit wie Missbilligung ausdrücken kann (vgl. Sterne 2010).

Auch Daten aus dem Social Media Monitoring können als Teil der Publikumsforschung betrachtet werden (vgl. Hermes 2009):
  • Sie geben Medienunternehmen Anhaltspunkte, wie Nutzer über ihre Angebote denken und mit ihnen umgehen. Dadurch können Rückschlüsse über (im Sinne von Aufmerksamkeit) erfolgreiche Inhalte gezogen werden.

  • Für die Mediaplanung liefern die Informationen gepaart mit Web-Analytics-Daten Hinweise über die Reichweite von werblichem Content.

  • Daten aus Web Analytics und Social Media Monitoring können zur Werbewirkungsforschung verwendet werden, als zu erklärende oder intervenierende Variablen für Werbewirkung. Dazu mehr im Abschnitt zur Werbewirkungsforschung.

  • Einige Werbevermarkter nutzen, eher vereinzelt, Social-Media-Monitoring-Ergebnisse, um ihre Werbekunden mit unterhaltsamen und interessanten Erkenntnissen zu beeindrucken. In der Frühphase des Social Web veröffentlichte zum Beispiel der Burda-Verlag eine sogenannte „Netnography“, die sich als ethnografische Forschung in den sozialen Medien verstand (vgl. Gadeib 2009). Es handelte sich um eine eher qualitative Analyse von Social-Media-Beiträgen, um an psychografische Erkenntnisse über Zielgruppen zu gelangen. Langfristig konnten sich solche Angebote aber nicht in der Werbevermarktung etablieren.

Agenturstudien

Als weiteren Bereich der kommerziellen Publikumsforschung kann man Studien von Agenturen ansehen, die sie meist für ihre Auftraggeber durchführen (z. B. Werbeerfolgskontrollen, Zielgruppenanalysen oder Werbemittel-Pretests). Solche Untersuchungen sind allerdings meist gar nicht oder nur unzureichend dokumentiert und Ergebnisse werden nur gelegentlich in der Fachpresse oder im Internet auszugsweise veröffentlicht, wenn es den PR-Interessen der Auftraggeber dient (vgl. Horizont 2016b).

Werbewirkungsforschung

Die Durchführung und Veröffentlichung von Studien und Fallbeispielen zur Werbewirkung und Kontaktqualität sind ein weiteres, wichtiges Thema, mit dem sich die Medienanbieter beschäftigen. Ziel dieser Art von Studien ist es, die Wirkungsleistung der eigenen Werbeträger gegenüber den Werbekunden zu dokumentieren und Argumente für eine Schaltung in den eigenen Medien zu gewinnen. Neben der Wirkungsforschung einzelner Vermarkter oder Werbeträger gibt es gemeinschaftlich durchgeführte Studien, bei denen es meist darum geht, die Wirkung der eigenen Gattung zu dokumentieren. Die wachsende Bedeutung der Werbewirkung – die zunehmend anstatt der Reichweite als neue „Leitwährung“ propagiert wird – erfordert eine eingehende Betrachtung. Deshalb gibt es in diesem Kapitel einen entsprechenden umfangreicheren Abschnitt zur Werbewirkungsforschung. An dieser Stelle sei aber erwähnt, dass es in Sachen Werbewirkungsforschung der Vermarkter und Gattungsorganisationen durchaus einen Versuch gibt, Transparenz und Vertrauen zu fördern und sich dabei an die Idee der gemeinschaftlichen Mediaforschung zumindest anzulehnen. Gemeint ist die Initiative der OWM (Organisation der Werbungtreibenden im Markenverband), in Kooperation mit der OMG (Organisation der Mediaagenturen im Gesamtverband Werbeagenturen), bei der zunächst eine gemeinsame Wirkungsstudie unter Beteiligung aller Mediengattungen angestrebt wurde. Eine entsprechende, sehr ambitionierte Pilotstudie scheiterte allerdings, da die verschiedenen Besonderheiten der Mediengattungen nicht in ein Studienkonzept integriert werden konnten (vgl. Horizont 2016c). Die beteiligten Vermarkter und Organisationen konnten sich nach Vorlage der Ergebnisse anscheinend nicht darauf einigen, wie die Wirkung der Mediengattungen tatsächlich vergleichbar dargestellt werden sollten. Die Bemühungen um Transparenz und Qualitätssicherung bei veröffentlichten Werbewirkungsstudien gehen aber trotzdem weiter und mündeten in die Qualitätsinitiative Werbewirkungsforschung, bei der sich alle Mediengattungen (und sogar erstmals auch Facebook und Google) engagieren und die bereits eine bessere Dokumentation von Studien auf den Weg gebracht hat (vgl. Günther 2017).

Programmatic Advertising

Das seit längerer Zeit bestehende und weiterhin aktuelle Thema der automatisierten Mediaplanung findet man unter Stichwörtern wie Performance Marketing, Realtime Advertising oder Programmatic Advertising (vgl. Busch 2014, 2015). Programmatic Advertising meint die automatisierte Online-Planung, bei der nach bestimmten selektionsspezifischen Vorgaben systematisch einzelne identifizierte Zielpersonen innerhalb der (definierten) Zielgruppe angesprochen werden. Damit zusammen hängt Predictive Analytics. Dabei handelt es sich um Verfahren auf Basis der automatisierten Beobachtung des Online-Verhaltens einzelner Personen und deren Web- und Profildaten. Es wird versucht, fallspezifisch zukünftiges Verhalten (mit einer bestimmten Wahrscheinlichkeit) vorherzusagen. (vgl. hierzu als Beispiel die Darstellung eines Anbieters für entsprechende Software: www.searchenterprisesoftware.de). Da Predictive Analytics immer bedeutsamer wird, wird im Abschnitt zur Werbewirkungsforschung näher auf das Thema eingegangen.

Diese Formen der Werbekommunikation basieren auf individuellen Daten, jedoch nicht auf denen der Mediaforschung, sondern auf digitalen Nutzungsdaten. Sie ermöglichen es, Kontakte ad hoc zu qualifizieren, unter Verwendung von Analysen auf Basis von Cookies und Tags und unter Einsatz von komplexen statistischen Verfahren und Algorithmen. So lässt sich beispielsweise ein Kontakt mit einer ausreichenden Wahrscheinlichkeit einer Person zuordnen, die sich gerade ein Auto kaufen möchte – z. B., weil die gesammelten Datenspuren zeigen, dass von dem benutzten Browser auch Suchanfragen zu Neuwagen und Besuche auf Auto-Websites ausgingen. Faktisch führt das dazu, dass so Nutzer identifiziert und mit gezielter Werbung angesprochen werden können. Das Prinzip unterscheidet sich eklatant von der klassischen Mediaplanung, bei der vom genutzten Umfeld (also der gelesenen Zeitschrift, der Sendung, der besuchten Website) auf die Zielgruppe geschlossen wird. Hier kann die richtige Zielgruppe oder besser Zielperson unabhängig vom Umfeld erreicht werden. Dies geschieht weitgehend automatisiert und im Bruchteil einer Sekunde. Bisher ist diese programmatische Mediasteuerung nur in Online-Medien möglich, doch die zunehmende Digitalisierung anderer Mediengattungen (Audio-Streaming, Addressable TV, Digital Out-of-Home etc.) machen das künftig auch für andere Medien möglich (vgl. Möhrer 2018). Es lässt sich ausmalen, dass diese „automatisierte Vorgehensweise“ mehr und mehr in Konkurrenz zur klassischen Mediaforschung gerät und diese überflüssig machen kann. Trotz einiger strenger Prognosen ist jedoch nicht damit zu rechnen, dass sich kurz- oder mittelfristig die Gewichte so verschieben, dass die normale Mediaforschung gänzlich überflüssig wird. Bisher relativ unabhängig von wachsenden Marktanteilen programmatischer Kampagnen am Kuchen der Werbeinvestitionen werden die meisten Gelder im deutschsprachigen Raum noch immer in klassisch vermarktete Werbeangebote gesteckt (vgl. Bachem 2018).

Doch muss sich der Markt mit Programmatic Advertising beschäftigen und die damit einhergehenden Probleme mittel- bis langfristig lösen. Die offensichtlichsten sind die folgenden:
  • Das grundsätzliche Problem von Transparenz, Vertrauen und Vergleichbarkeit, das in der klassischen Mediaplanung durch die gemeinschaftliche Mediaforschung und die daraus resultierende Währung gelöst ist.

  • Die Bedenken und Vorbehalte der Internetnutzer gegenüber dem Sammeln, Auswerten und Ausbeuten von Nutzerdaten. Die rechtlichen Datenschutzbestimmungen und das Unbehagen der Bürger gegenüber dem Datensammeln im Internet wachsen. Dieses Thema würde ein eigenes Kapitel erfordern. Hier sei nur darauf hingewiesen, dass dieser Aspekt bei Drucklegung des Aufsatzes umstritten ist. Die Ende Mai 2018 in Kraft getretene europäische Datenschutz-Grundverordnung (EU-DSGVO) und die noch zu erwartende ePrivacy-Verordnung werden einen Einfluss auf die Vermarktung digitaler Werbeangebote haben, deren Auswirkungen aber noch nicht abzusehen sind (vgl. Hanloser 2018). Hier empfiehlt es sich, den aktuellen Stand in den Fachmedien zu beobachten.

Insgesamt betrachtet ist der Bereich der kommerziellen Publikumsforschung durch den raschen und dramatischen Wandel durch die Digitalisierung und das entsprechende Angebot an internetspezifischen Nutzungsmöglichkeiten mehr gefordert als je zuvor. Einige Überlegungen zur Zukunft der Media- und Publikumsforschung finden sich am Ende dieses Buchbeitrages.

2 Mediaforschung und Werbeträgerforschung

Definiert man Marktforschung als analysierende Beschäftigung mit Märkten auf Basis empirisch gewonnener Daten, dann ist die Medienforschung als ein Teil davon zu betrachten (vgl. Kuß et al. 2014). Generell bezieht sich Marktforschung auf alle Wirtschaftsbereiche der Konsum- und Investitionsgüterindustrie. Der Medienmarkt stellt dann einen Teilbereich daraus dar und Medienforschung beschäftigt sich generell mit allen Medien, deren Mediennutzung und den Entwicklungstendenzen. Sie umfasst redaktionelle Forschung und Forschung für den Werbemarkt ebenso wie die wissenschaftliche Beschäftigung mit Medien, die sich eher auf Phänomen der Massenkommunikation und den Aspekten öffentlicher Meinung konzentriert. Mediaforschung ist dann ein Teilgebiet der Medienforschung und beschränkt sich darauf, den Marktpartnern auf dem Werbemarkt verlässliche Informationen über Werbeträger, deren Reichweiten und Nutzer zu liefern, und Informationen zur Werbewirkung bereitzustellen. Daten, wie etwa die Einschaltquoten des Fernsehens, dienen zugleich der redaktionellen Programmforschung der Sender, wie auch der Mediaplanung der Werbungtreibenden und Agenturen (vgl. Frey-Vor et al. 2008).

Drei Bereiche der Mediaforschung

Die Mediaforschung umfasst drei Disziplinen, die Werbemittelforschung, die Werbeträgerforschung und die Werbewirkungsforschung (vgl. Hofsäss und Engel 2003).

Werbemittelforschung beschäftigt sich vor allem mit Pre- und Post-Tests. Dabei geht es dominant um Wirkungsaspekte, um entweder im Vorhinein oder im Nachhinein festzustellen wie das Werbemittel voraussichtlich wirken wird bzw. gewirkt hat. Dieses Feld ist für die kommerzielle Publikumsforschung eher von geringerer Bedeutung, deshalb wird es in diesem Kapitel nur sehr kurz angesprochen.

Essentiell hingegen ist die Werbeträgerforschung, weshalb ihre Behandlung den größten Teil dieses Kapitels einnehmen wird. Ihre Aufgabe ist die Erhebung spezieller Mediennutzerschaften (Leser, Hörer, Seher) und die damit korrespondierende Bereitstellung von Leistungsbeiträgen (Reichweiten) der Medien. Für die Werbewirtschaft wird dadurch die Transparenz der Werbeträger gewährleistet. Im Einzelnen geht es darum festzustellen…
  • wie viele Personen von einem Werbeträger erreicht werden (Reichweite)

  • wie sich dieser Personenkreis zusammensetzt (Struktur)

  • wie häufig dieser Personenkreis bei Mehrfachbelegung erreicht wird (Kumulation)

  • wie sich der Kontakt in Richtung Werbemittelwahrnehmung qualifiziert (Kontaktqualität)

  • wie sich die Überschneidungen beim Einsatz mehrerer Mediengattungen darstellen (Stichwort: Intermedia-Datei oder aktuell Multiscreen-Nutzung).

Diese Informationen werden über Media- und Markt-Media-Studien erhoben und den Teilnehmern des Werbemarktes bereitgestellt. Gerade über die Markt-Media-Studien gelingt der Werbeträgerforschung die Bereitstellung marktrelevanter Informationen für die Situationsanalyse innerhalb der Marktforschung und der Marketingplanung. Dazu gehören Informationen über die Marktsituation, Entwicklungstendenzen und den Wettbewerb ebenso wie Informationen über Käufer und Verwender der Marken. Diese Daten bieten somit einerseits die Möglichkeit Märkte und Konsumenten zu beschreiben und bieten andererseits die Basis für den konkreten Planungsprozess.

Informationen zum Werbemarkt, und damit zu konkurrenzspezifischen Vorgehensweisen, wie zum Beispiel die Feststellung markenspezifischer Werbeaufwendungen und strategischer Aspekte wie Media-Mix, zeitlicher resp. saisonaler Werbeeinsatz, Höhe des Werbedrucks u. v. a. m. können zusätzlich über Daten der Nielsen Werbeforschung eruiert werden.

Ein wichtiger Bereich der Werbeträgerforschung kann man als Werbestatistik bezeichnen. Sie beschäftigt sich ausschließlich mit der Erfassung quantitativer Kennzahlen zum Medienmarkt und kann nach der Erhebung der Werbeaufwendungen und der Werbeträgerstatistik differenziert werden. Daten über Werbeaufwendungen liefern Informationen über das Werbeverhalten der Konkurrenz und sind für die gesamte Media-Planung unerlässlich (z. B. zur Festsetzung des Werbebudgets). Daten zur Werbeträgerstatistik werden dagegen primär zur Dokumentation der Auflagen von Printmedien benötigt (inklusive der riesigen Anzahl von Fachzeitschriften, die sich an berufliche Nutzer richten) und der Feststellung von Entwicklungstendenzen in verschiedenen Bereichen.

Ein weiterer wichtiger Bereich ist die Werbewirkungsforschung. Sie beschäftigt sich mit der Wirkung von Werbekampagnen auf die Rezipienten. Daten zur Werbewirkung erhält man zum Beispiel über sogenannte Tracking-Studien. Es werden über regelmäßige Wellenbefragungen vor allem Werbewirkungsindikatoren erhoben, mit denen es möglich ist, Informationen im Zeitverlauf und in Abhängigkeit von Werbemaßnahmen und den eingesetzten Medien zu analysieren. Als wesentliche Indikatoren werden sogenannte Awareness-Daten, nämlich Markenbekanntheit und Werbeerinnerung erhoben, die meist durch weitere Items ergänzt werden (Markensympathie, Einstellungen, Präferenzen, etc.). Insofern geht es hier primär um die Überprüfung und Optimierung des Werbeträgereinsatzes und weniger um die des eingesetzten Werbemittels. Welche Mediengattung besser oder schlechter zur Wirkung beigetragen hat, wie der optimale Werbedruck zu definieren ist und welches Budget notwendig ist, um ein bestimmtes Kommunikationsziel zu erreichen, ist dann auf Basis dieser Daten Aufgabe der Modelling-Analyse. Da die Werbewirkungsforschung in den vergangenen Jahren mehr und mehr aus dem Schatten der früher dominanten Werbeträgerforschung getreten ist, wird es dazu einen eigenen Abschnitt in diesem Kapitel geben.

ZAW-Rahmenschema für Werbeträgeranalysen Die wichtigen Werbeträger werden zumeist in den Gemeinschaftsstudien der Mediaforschung erhoben, wodurch vergleichbare Daten vorliegen. Doch nicht alle Werbeträger werden in diesen Studien abgedeckt:

Fachzeitschriften, Anzeigenblätter, kostenfreie Kunden- und Mitgliedermagazine sind qua Satzung nicht Teil der ma. Für andere kleine Special-Interest-Werbeträger sind oft die Kosten einer Teilnahme an Media-Studien zu hoch oder die Auflagen bzw. die Zugriffszahlen sind zu gering.

Es gibt wenige speziell auf Fachzeitschriften ausgerichtete Leser-Analysen, die bestimmte Branchen abdecken und Stichproben von relevanten Entscheidern befragen. Die wichtigsten dieser Art sind die agriMA (Landwirte; vgl. https://www.lv.de/news/ergebnisse-der-agrima-liegen-vor-369/), LA Pharm (Apotheker), LA Med (Ärzte) und LA Dent (vgl. http://www.la-med.de/studien/apotheker-studie/), LA Elfa (Elektronikfachhandel, vgl. http://www.la-elfa.org/de/ergebnisse/index.htm) und AGLA a+b (Architekten und Bauingenieure; vgl. http://www.agla-ab.de/studien/). Aus Kostengründen erscheinen diese Analysen in längeren Abständen.

Wenn solche Werbeträger trotzdem mit Zahlen über die Struktur ihrer Leser im Werbemarkt argumentieren wollen, müssen sie eigne Erhebungen durchführen. Damit dies trotzdem zu vertrauenswürdigen und zuverlässigen Ergebnissen führt, gibt es anerkannte Richtlinien, wie solche Untersuchungen methodisch korrekt durchzuführen sind. Das in Deutschland geltende Regelwerk zur Definition methodischer Anforderungen an empirische Reichweiten- und Strukturanalysen stellt das gerade in 2018 wieder neu aufgelegte „ZAW Rahmenschema für Werbeträger-Analysen“ dar. Das ZAW-Rahmenschema enthält umfassende und präzise definierte Anforderungen zur Durchführung von Werbeträgeranalysen bei allen klassischen Mediengattungen und weiteren (werbe-) kommunikativen Maßnahmen, wie zum Beispiel auf Messen, in Adressbüchern oder beim Einsatz von Direktwerbung. Allgemeine und spezielle methodische Aspekte werden durch einige statistische Basisinformationen und die Darstellung der verschiedenen Erhebungstechniken bzw. Ermittlungsverfahren ergänzt. Auf Empfängerstrukturanalysen wird ebenso eingegangen wie auf Nutzerstruktur- und Reichweitenanalysen. Abschließend sind konkrete Fragenbeispiele aus Werbeträgeranalysen aufgeführt, wie sie für die Untersuchung der Nutzung unterschiedlicher Mediengattungen eingesetzt werden sollten (vgl. ZAW 2018b).

Werbevermarktung mit Forschung

Es gibt mittlerweile empirische Studien, die belegen, wie wichtig Forschungsservices der Vermarkter für die Aufnahme von Werbeträgern in einen Mediaplan sind (vgl. Knuth 2013). Deshalb liefern Medienvermarkter heute eine Vielzahl von Forschungsleistungen und -ergebnisse, mit denen sie nicht nur Argumente für ihre Werbeträger liefern, sondern auch die Beziehung zu Mediaplanern und Marketing-Entscheidern pflegen, weshalb die Themen weit über die reine Reichweitenmessung hinausgehen. Am verbreitetsten sind nach wie vor die sogenannten Copy-Tests von Zeitschriften: Kleine Werbewirkungsuntersuchungen mit repräsentativen Stichproben von Lesern, bei denen ein Heft Seite für Seite mit dem Befragten durchgegangen wird, um festzustellen, welche Anzeigen beachtet und gelesen wurden (vgl. Scholl 2018). Viele kleine Verlage bieten Copy-Tests an, die großen Verlagshäuser haben hingegen ihre individuellen Angebote weitgehend eingestellt und durch ein gemeinsames Testen von Motiven (das Kreativ-Tracking im Rahmen der Studie Best for Tracking) ersetzt (vgl. https://gik.media/best-for-tracking/kreativtracking/).

Das Angebot der verschiedenen Vermarkter an Forschungsleistungen und Erkenntnissen ist umfangreich. Es werden angeboten: kampagnenbegleitende Wirkungs- und Erfolgskontrollen, Copy-Test-Datenbanken, Motiv- und Pre-Tests, ökonometrische Marketing-Mix-Modellings, Attribution Modelling, tiefenpsychologische Zielgruppenstudien, umfassende Marktdaten, Branchenberichte, Untersuchungen zur inhaltlichen Relevanz von Medien, Meinungsforschung zu gesellschaftlichen Themen, Zukunftsszenarien und Trendforschung, allgemeines Grundlagenwissen (in Form von Seminaren, Büchern oder Broschüren), Neueditionen von Klassikern der Marketing-Literatur, lernpsychologische Experimente, Usability- und Blickregistrierungsstudien, international vergleichende Daten und vieles anderes mehr. Doch die große Zeit derartiger Bemühungen scheint vorbei zu sein. Viele Medien haben aufgrund stagnierender oder sinkender Netto-Werbeerlöse ihren Service reduziert, was aber zum Teil durch verstärkte PR-Maßnahmen kaschiert wird (vgl. Engel 2012).

Qualitative Mediaforschung

Während über viele Jahrzehnte die Werbeträgerforschung eine Domäne der quantitativen Methoden war, haben sich in den vergangenen 20 Jahren auch qualitative Methoden etabliert. Qualitative Markt- und Mediaforschung beschäftigt sich mit Vorgehensweisen, die dazu dienen, Menschen und ihr Verhalten, ihre Motive und ihre Sicht der Welt besser zu verstehen (vgl. Buber und Holzmüller 2009). Dies sind in der Praxis meist Tiefeninterviews oder Gruppendiskussionen. Dabei werden keine quantifizierbaren Daten erhoben, die Erkenntnisse basieren im Gegensatz zur quantitativen Forschung nur auf der Befragung einiger weniger Personen. Sie sind deshalb nicht quantifizierbar, sondern können nur Tendenzen darstellen. Qualitative Analysen werden oft zur Hypothesenbildung herangezogen, die dann innerhalb quantitativer Studien überprüft werden können. Allerdings sind sie durchaus in der Lage, eigene Forschungsfragen zu beantworten, die durch quantitative, standardisierte Befragungen auf Grund der geringen Informationstiefe nicht abgedeckt werden kann. Qualitative Methoden gewinnen in der Mediaforschung deshalb an Bedeutung. Das hängt vor allem damit zusammen, dass qualitative Aspekte in der Mediaplanung ein tieferes Verständnis des Mediennutzers erfordern und in einer Situation von fragmentiertem Medienverhalten immer wichtiger werden. Man spricht in diesem Kontext von Consumer Insights (vgl. Fortini-Campbell 2001). Viele Werbevermarkter veröffentlichen Studien mit qualitativer Methodik, um Argumente für ihre Werbeträger und Medien daraus abzuleiten und anschauliche (und oft unterhaltsame) Erkenntnisse für Verkaufsveranstaltungen und Öffentlichkeitsarbeit zu nutzen.

Publikumsforschung für den Vertriebsmarkt

All diese Informationen werden dominant unter dem Aspekt der werblichen Relevanz von Werbeträgern erhoben und der Werbewirtschaft zur Verfügung gestellt. Markt- und Markt-Media-Studien werden durch die Werbeträger finanziert und stehen den Nutzern (Agenturen und Werbungtreibenden) unentgeltlich zur Verfügung. Dabei stellen sie entweder auf inhaltlich identischer Basis oder über ähnliche (forscherische und methodische) Vorgehensweisen auch für den Vertrieb von Medien eine wichtige Informationsquelle dar. Auf das Thema Mediaforschung für den Vertriebsmarkt wird deshalb anschließend noch gesondert eingegangen.

2.1 Media-Studien

Für Mediaplanung und Werbevermarktung gibt es zwei wichtige Arten von Werbeträgerstudien: Media-Analysen und Markt-Media-Analysen. Aufgabe von Media-Analysen ist die optimale, valide und mediengerechte Erhebung der individuellen Mediennutzung, während die Aufgabe der Markt-Media-Analysen darin besteht, neben Informationen zur Mediennutzung auch gleichzeitig differenzierte Konsum- und Verbraucherinformationen zur Verfügung zu stellen.

Überblick Media-Studien und Markt-Media-Studien

Die Media-Analyse (ma) der agma stellt für viele Mediengattungen (mit der Ausnahme von TV) die Standardwährung für Leistungsdaten bereit. Für die Fernsehnutzung liegen die Daten der AGF Videoforschung, auch als Einschaltquote bekannt, vor. Die Daten für Online-Werbeträger werden von der AGOF als „Digital Facts“ zur Verfügung gestellt, sind aber gleichzeitig Bestandteil der ma Online.

Die wichtigste Markt-Media-Studie in Deutschland ist „Best for Planning“ (b4p). Diese Studie löste vor einigen Jahren die bis dahin bestehenden Studien Verbraucheranalyse (VA) und Typologie der Wünsche (TdW) ab, die sich mit den meisten werberelevanten Konsumbereichen beschäftigten. Darüber hinaus gibt es weitere Studien, die sich entweder auf spezielle Zielgruppen oder nur auf einzelne Konsumbereiche beziehen, dort aber entsprechend inhaltlich in die Tiefe gehen.

Die Abfrage der Mediennutzung ist in Markt-Media-Studien im Vergleich zur ma vereinfacht, da aus forschungsökonomischen Gründen eine detaillierte Abfrage nicht möglich ist – die Interviews wären ansonsten zu überfrachtet, da ja ebenfalls umfangreiche Konsum- und Zielgruppeninformationen erhoben werden. Um trotzdem im Markt konsistente und verlässliche Reichweitendaten sicherzustellen, werden die Werte der ma in der Regel von den Markt-Media-Studien via Anpassung übernommen. Anpassung bedeutet in diesem Zusammenhang, dass die Markt-Media-Studien durch die Gewichtung wichtiger demografischer Merkmale (zum Beispiel Geschlecht, Alter, Ortsgrößenklassen) versuchen, in diesen Teilgruppen identische Leistungswerte (Reichweiten und Strukturen), analog der ma nachzubilden. Dies ist deshalb wichtig, da es sonst in verschiedenen Studien abweichende Werte geben würde – und sich Werbevermarkter dann diejenige Studie heraussuchen könnten, deren Ergebnisse gerade am besten zum Vermarktungsinteresse passen. Denn selbst bei gleichen methodischen Vorgehensweisen verschiedener Studien werden erfahrungsgemäß nicht exakt dieselben Werte erhoben, die sich allerdings von Studie zu Studie meist innerhalb des Konfidenzintervalls bzw. der Schwankungsbreite bewegen. Um solche Abweichungen in der alltäglichen Mediapraxis zu vermeiden, wurde die Vorgehensweise der Anpassung der erhobenen Werte an die Referenz-Studien vor langer Zeit etabliert. Dies funktioniert sehr gut in breiteren Zielgruppen-Segmenten, kann aber nicht verhindern, dass sich trotz Gewichtung in kleinen, spitz definierten Zielgruppen die Potenziale von Studie zu Studie unterscheiden. Deshalb sollte man sich bei der alltäglichen Arbeit mit Markt-Media-Studien immer für eine Studie entscheiden, um Irritationen zu vermeiden. Es sollte jene Studie verwendet werden, die den methodischen und inhaltlichen Anforderungen am ehesten gerecht wird.

Anschließend werden die in Deutschland existierenden Media-Studien der agma, AGF und AGOF vorgestellt, danach folgen die relevanten Markt-Media-Studien.

Die Media-Analyse der agma

Die Media-Analyse (ma) gilt als wichtigste Media-Studie in Deutschland und liefert Basisdaten für die Bewertung folgender Mediengattungen: Publikumszeitschriften, Zeitungen, Hörfunk, Kino, Außenwerbung, Online und Lesezirkel (wobei hier die Werbung auf den Umschlägen von Lesezirkel-Zeitschriften gemeint sind). Dafür gibt es die ma Print, die ma Radio, die ma Plakat und die ma Internet. Alle Mediengattungen zusammen, plus zusätzliche TV-Daten, erscheinen in der ma Intermedia PLuS, die als einzige Studie dieser Art in Deutschland verfügbar ist. 2018 kam die maX hinzu, die Informationen über Parallelnutzung und Überschneidungen auf Ebene der Mediengattungen für die strategische Mediaplanung zur Verfügung stellt. Auf Basis der HUB-Survey mit rund 13.000 Fällen kann damit nicht nur festgestellt werden, wann welche Personen im Tagesablauf welche Medien nutzen, sondern auch welche Medien parallel genutzt werden und wie z. B. die Nutzung an Werktagen im Vergleich zum Wochenende aussieht (vgl. Hansen 2018).

Das von der ma gepflegte Prinzip der Gemeinschaftsuntersuchung verschiedener Mediengattungen ist insofern vorbildlich, da alle Marktpartner, nämlich Werbungtreibende, Agenturen und Medienanbieter gemeinsam am Tisch sitzen und konsensfähige Methoden entwickeln. International spricht man in diesem Zusammenhang von Joint Industry Committees (JICs). Entscheidungsbildende Gremien bei der agma sind (vgl. www.agma-mmc.de/ueber/agma/):
  • Mitgliederversammlung (Werbeagenturen und Werbungtreibende halten 34 Prozent der Stimmen)

  • Vorstand (acht Personen), jeweils ein Vorstand pro Mediengattung bzw. Mitgliedergruppe (TV, Hörfunk, Publikumszeitschriften, Tageszeitungen, Außenwerbung, Online-Medien, sowie Werbungtreibende und Agenturen

  • Arbeitsausschuss (mit deutlich über 50 Personen)

  • Technische Kommission (jeweils ein gewählter Marktforscher und ein berufenes Mitglied pro Gruppe, wobei es einzelne Ausnahmen gibt)

Mit dieser Stimmenverteilung können die Nutzer der agma, also die Werbungtreibenden und Agenturen, zwar nichts gegen die Interessen der Medien innerhalb der agma durchsetzen, aber alles verhindern. Laut agma-Satzung bedarf es einer Zwei-Drittel-Mehrheit um eine Veränderung der agma-Konzeption zu erwirken. Alle Mediengattungen zusammen erreichen nur 66 %, während umgekehrt die Nutzer zusammen mit einer Mediengattung (Elektronik oder Print) die Zwei-Drittel-Mehrheit erreichen könnten. Hierbei ist es aber Usus, dass nicht mit einer nicht betroffenen Mediengattung gegen eine andere (also betroffene) Gattung votiert wird.

Die bisherige Entwicklung zeigt, dass die Anforderungen an Media-Untersuchungen am ehesten durch Partnerschaftsmodelle analog der Arbeitsgemeinschaft Media-Analyse (agma) zu realisieren sind, in denen Werbungtreibende, Agenturen und Medienvertreter gemeinsam Aufgaben und Lösungsmöglichkeiten definieren, Methodenexperimente durchführen, Studien realisieren und Ergebnisse diskutieren. Denn medienspezifische Standardwährungen, die intra- und intermediale Vergleichbarkeit ermöglichen, setzen einerseits Einflussnahme und andererseits Konsens der Marktpartner voraus. Methodische Anforderungen und entsprechende Konventionen müssen gemeinschaftlich definiert werden. Den Werbungtreibenden und Agenturen kommt hier eine Kontrollfunktion zu, indem sie darüber wachen, dass nicht jede Mediengattung oder sogar jedes Medium, den für sie jeweils ‚besten‘ Untersuchungsansatz wählt. Für alle Tranchen der ma gibt es eine aktuelle Methodendokumentation (vgl. Arbeitsgemeinschaft Media-Analyse e.V. 2018a). Diese stehen den Mitgliedern zur Verfügung und können für wissenschaftliche Zwecke bei der Arbeitsgemeinschaft Media-Analyse angefordert werden. Die folgenden Ausführungen beziehen sich überwiegend auf diese Methodenberichte und werden als Quellen nicht mehr gesondert genannt.

Das MA-Erhebungsmodell

Das Erhebungsmodell der Media-Analyse wird nachfolgend am Beispiel der Publikumszeitschriften erläutert, da diese Vorgehensweise aus Sicht der Autoren am einfachsten darzustellen und nachzuvollziehen ist. Außerdem ist es historisch gesehen das Vorbild für die anderen Mediengattungen, auch wenn diese sich im Interesse einer medienadäquaten Messung mitunter weit von den Ursprüngen entfernt haben (vgl. Hess 1996). In den weiteren Abschnitten wird dann nur noch kursorisch auf die jeweiligen Methoden und Berechnungsmodelle der anderen Mediengattungen eingegangen. Weitere Informationen finden sich bei Frey-Vor et al. 2008 (wenn auch 2018 nicht mehr auf dem neusten Stand). Durch die Dynamik in diesem Forschungsfeld sind in der Regel alle gedruckten Quellen sehr schnell veraltet, weshalb es sich empfiehlt, die Websites der Akteure nach aktuellen Informationen zu konsultieren.

Für die Print-Tranche (ma Print) wurden als Erhebungstechnik früher ausschließlich mündliche, persönliche Interviews (face-to-face) eingesetzt. Inzwischen werden diese durch den Interviewer durchgeführten Befragungen über CASI-Interviews ersetzt, bei der die Befragungsperson mittels eines Laptops den Fragebogen selbst durchgeht und beantwortet. Dem ‚Interviewer‘ kommt nur noch die Funktion des Einweisers und anwesenden Experten (bei etwaigen Bedienungsfragen durch die Befragungsperson) zu.

Die Stichprobe wird durch eine Zufallsauswahl (Random) gezogen. Ziel dieser Untersuchung ist es, (neben der Erhebung allgemeiner soziodemografischer Informationen über den Befragten und seinen Haushalt) herauszufinden, welche von derzeit ca. 180 deutschen Zeitschriften von dem Befragten gelesen werden. Wie wird nun ein Befragter zum Leser? Grundlage ist ein methodischer Ansatz, der als „Recent Reading“-Modell bezeichnet wird (vgl. Hess 1996). Das bedeutet, im Interview wird gefragt, ob und wann eine bestimmte Zeitschrift zuletzt gelesen wurde.

Filterführung

Unter Filterführung werden die Fragen im Fragebogen verstanden, mit deren Hilfe festgestellt werden kann, ob ein Befragter ein Leser einer speziellen Zeitschrift ist oder nicht. Die Befragungspersonen bekommen zunächst sogenannte Titelkarten auf dem Laptop angezeigt. Die Titelkarten dienen als kleine visuelle Erinnerungshilfen, auf denen das Logo und/oder der Schriftzug des jeweiligen Titels in Original-Farben abgebildet sind.

Die Titelkarten werden bei den CASI-Interviews gruppiert vorgelegt, so dass etwaige Erinnerungsfehler (z. B. bei ähnlichen Titeln) minimiert werden können. So kommen pro Interviewten nur 2/3 der Titel zum Einsatz, um das Interview nicht zu überfrachten. Das bedeutet, die insgesamt abzufragenden Titel werden gedrittelt und jeweils einem Drittel der Befragungspersonen 2/3 der Titelkarten gezeigt.

Die Titelkarten müssen dann von den Befragten danach sortiert werden, ob die Zeitschrift …
  1. 1.

    überhaupt nicht bekannt ist

     
  2. 2.

    nur dem Namen nach bekannt ist

     
  3. 3.

    oder ob man sie schon mal in der Hand hatte um darin zu lesen oder zu blättern

     

Nur für die Titel, die unter 3. sortiert wurden, werden weiterführende Fragen gestellt. Diesen ersten Filter nennt man Generalfilter, da er zunächst die Vielzahl von Titeln auf die Anzahl reduziert, die von der Befragungsperson schon einmal genutzt wurde.

Der nächste Filter ist der sogenannte große Zeitfilter, der sich je nach titelspezifischer Erscheinungsweise auf unterschiedlich zurückliegende Zeiträume bezieht. Das agma-Modell geht von 12 zurückliegenden Erscheinungsintervallen aus, in denen man einen Titel gelesen haben sollte. Die Zahl zwölf erscheint hier leicht nachvollziehbar, da eine monatliche Zeitschrift exakt zwölf Mal pro Jahr erscheinen kann. Übrigens werden in anderen Ländern sehr oft nur sechs Erscheinungsintervalle abgefragt.

Zur Feststellung des „Lesens“ innerhalb der zwölf zurückliegenden Erscheinungsintervalle werden die Titel nach Erscheinungsintervall sortiert. Die Befragungsperson macht daraufhin Angaben zum letzten Lesen des jeweiligen Titels und zwar beginnend mit den monatlichen Titeln. Dabei muss der Titel innerhalb der letzten 12 Monate gelesen worden sein, um zum sogenannten ‚Weitesten Leserkreis‘ (WLK) des Titels zu gehören. Die weiteren Skalenpunkte sind „1–2 Jahre her“ und „länger her“‘. Analog der monatlichen Zeitfilter werden 14-täglich erscheinende Zeitschriften mit einer Skala abgefragt, die folgende Skalenpunkte hat: „in den letzten 6 Monaten“, „ein halbes Jahr bis ein Jahr“, „länger her“. Bei wöchentlichen Titeln umfasst die Skala die Punkte „in den letzten 3 Monaten“, „3–6 Monate“ und „länger her“.

Alle Personen, die einen Titel innerhalb der letzten zwölf Erscheinungsintervalle genutzt haben, gehören nun qua Definition zum ‚Weitesten Leserkreis‘. Mit dieser Information ist bekannt, wie viele Personen mindestens in einer Ausgabe von insgesamt zwölf Ausgaben in dem zurückliegenden Zeitraum geblättert oder gelesen haben. Zur Bestimmung präziser Reichweiten benötigen wir aber zwei weitere Informationen:
  1. 1.

    Wann wurde zuletzt gelesen oder geblättert (definiert als ‚Leser pro Nummer‘ = LpN)?

     
  2. 2.

    Wie viele Ausgaben von insgesamt zwölf wurden (schätzungsweise) genutzt (= Lesefrequenz)?

     

Leser pro Nummer (LpN)

Der Leser pro Nummer (LpN) ist definiert als Leser im letzten Erscheinungsintervall, d. h. je nach Erscheinungsweise geht es um die letzten 7 Tage (bei wöchentlich erscheinenden Titeln) bis zu den letzten 4 Wochen bei monatlichen Publikationen. Der LpN liefert nun die eigentliche Reichweite des Titels. Denn wenn z. B. 1.000 von 20.000 Personen im Erhebungszeitraum angeben, im LpN zu sein, dann müsste der Titel eine Reichweite von 5 % aufweisen.

Reichweiten- und Kontakt-Kumulation

Diese Information reicht aber noch nicht aus, da kumulative Daten benötigt werden. Denn in der Mediaplanung werden in der gleichen Zeitschrift öfter als einmal Anzeigen geschaltet. Gleichzeitig ist bekannt, dass eine Zeitschrift nicht immer wieder von denselben Personen gelesen wird. Jeder Titel hat ebenso regelmäßige wie gelegentliche oder sogar ganz seltene Leser. Je nach Anteil gelegentlicher und regelmäßiger Leser erreicht somit ein Titel entweder fast immer in etwa dieselben Personen oder mit jeder Ausgabe ganz andere (neue) Leser. Man spricht in diesem Zusammenhang von Reichweiten- und Kontakt-Kumulation. Würde ein Titel immer dieselben Personen erreichen, so ergäbe sich z. B. nach 12 Ausgaben dieselbe Reichweite wie nach einer Ausgabe, alle Personen hätte man dann aber 12 Mal erreicht. Würde andererseits ein Titel mit jeder Ausgabe eine ganz andere Leserschaft erreichen, so hätte man nach 12 Ausgaben zwölf Mal so viele Leser wie nach der ersten erreicht, aber jeden nur ein Mal. Diese beiden theoretischen Kumulationsverläufe gibt es in der Realität jedoch nicht. Faktisch bewegt man sich irgendwo dazwischen. Dabei gibt es Unterschiede zwischen den Zeitschriftengattungen, bei Programmzeitschriften z. B. eher in Richtung regelmäßiger Leserschaft, bei anderen Titeln eher in Richtung gelegentliche und seltene Leserschaft.

Wenn von den (verschiedenen) Personen die Rede ist, die man nach einer, zwei oder sogar 12 Ausgaben erreicht, dann spricht man von der Nettoreichweite (absolut oder in %). Die Anzahl der Kontakte, also wie oft man die einzelnen Personen nach mehreren Einschaltungen erreicht, spielt keine Rolle. Addiert man andererseits die Reichweiten, zählt die Mehrfachkontakte einzelner Personen auch mit, dann ergibt sich die Bruttoreichweite. Diese wird absolut betrachtet als Kontakte oder Kontaktsumme ausgedrückt und prozentual berechnet als GRP (Gross Rating Point).

Frequenzangabe

Durch den LpN ist nur bekannt, wie viele Personen durchschnittlich eine Ausgabe genutzt haben, aber nicht, was nach mehreren Ausgaben passiert. Es benötigt noch eine Angabe zur Lesehäufigkeit, um eine Aussage über die so genannte Netto-Reichweite nach mehreren Ausgaben zu ermöglichen. Deshalb gibt es noch eine Frequenzfrage pro Titel im weitesten Leserkreis (WLK), die bei monatlichen Titeln wie folgt lautet: „Von dieser Zeitschrift erscheinen in 12 Monaten 12 verschiedene Ausgaben. Wie viele von diesen 12 verschiedenen Ausgaben haben Sie in den letzten 12 Monaten durchgeblättert oder gelesen?“ Damit kann nun festgestellt werden, wer einen speziellen Titel regelmäßig und wer ihn nur ab und zu liest.

Diese Information zur Lesefrequenz wird dann in Wahrscheinlichkeitswerte, sogenannte p-Werte umgewandelt, wobei einzelne Frequenzklassen zusammengefasst werden, da es sich ja eher um eine Schätzung der Befragungsperson handelt. Der Buchstabe p steht für das englische probability, also die Wahrscheinlichkeit. Eine Frequenzangabe von 6 von 12 Ausgaben wird zum p-Wert von 0,5 verrechnet, eine von 9 von 12 Ausgaben zu 0,75. Im ersten Fall (0,5) bedeutet dies wahrscheinlichkeitstheoretisch, dass diese Person jede zweite Ausgabe des betreffenden Titels nutzt. Wenn nun insgesamt 200 Personen die Angabe gemacht hätten, dass sie jeweils 6 von 12 Ausgaben nutzen, dann würde dies wahrscheinlichkeits-theoretisch bedeuten, dass die eine Hälfte, nämlich 100 Personen, die eine Ausgabe nutzten und die andere Hälfte die jeweils nächstfolgende Ausgabe. Die Ausgaben würden also von den 200 Personen immer alternierend genutzt werden. Demzufolge müssten aber auch 100 dieser 200 Personen eine LpN-Angabe gemacht haben, da sie ja im letzten Erscheinungsintervall gelesen haben sollten. Daraus wiederum folgt, dass die Summe der LpN-Angaben pro Titel mit der Addition der Nutzungswahrscheinlichkeiten (p-Werte) übereinstimmen müsste. In der Realität ist es dagegen so, dass die Summe der Nutzungswahrscheinlichkeiten meist höher ist als die Anzahl der LpN-Nennungen. Da man aber davon ausgehen kann, dass der LpN die präzisere Angabe darstellt, denn die Erinnerung an den letzten Erscheinungsintervall (ob 1 Woche, 2 Wochen oder 4 Wochen) sollte verlässlicher sein als eine Schätzung der Frequenz im 12-fachen Erscheinungsintervall, determinieren die LpN-Angaben die Frequenzschätzungen. Die Frequenzangaben werden entsprechend so justiert, dass sie mit dem LpN übereinstimmen. Würden beim obigen Beispiel nicht 100 Personen, sondern nur 90 Personen eine LpN-Angabe machen, dann würde der p-Wert von 0,5 auf 0,45 herabgesetzt.

Leser pro Ausgabe (LpA)

Die dadurch entstandene Währung nennt man Leserschaft pro durchschnittliche Ausgabe (LpA) und sie bildet die Planungsbasis auf Werbeträgerkontaktebene für alle Media- und Markt-Media-Studien, die mit Printmedien zu tun haben. Darüber hinaus ermöglicht die (justierte) Frequenzangabe nun die Berechnung und Darstellung der Reichweiten- und Kontaktkumulation nach 2 bis n Ausgaben und somit auch für Mediapläne mit mehreren Titeln, die mit unterschiedlichen Frequenzen belegt werden.

Mit der dargestellten Filterführung und den nachfolgenden Berechnungen lassen sich die Leser einer Zeitschrift identifizieren. Doch das Lesen einer Zeitschrift sagt noch wenig darüber aus, ob ein Rezipient auch mit einer Anzeige in Kontakt gekommen ist. Vielleicht blättert jemand nur einen kleinen Teil einer Zeitschrift auf der Suche nach einem Kreuzworträtsel durch, dann kommt er mit Anzeigen in den nicht durchgeblätterten Teilen gar nicht in Berührung. Hier muss also noch genauer nachgefragt werden.

Der Werbemittelkontakt in der MA

Innerhalb der Werbeträgerforschung differenziert man drei unterschiedliche Kontaktbegriffe, den Werbeträgerkontakt, die Werbemittelkontaktchance und den Werbemittelkontakt. Diese Unterscheidung entwickelte sich historisch durch die immer stärker artikulierte Forderung der Werbungtreibenden, Kontakte so „hart“ wie möglich zu erheben und zu definieren. Werbungtreibende und Agenturen waren deshalb in der Vergangenheit immer bestrebt, den eher „weichen“ Werbeträgerkontakt stärker in Richtung Anzeigenkontakt bzw. Anzeigenkontaktchance zu qualifizieren. Man spricht deshalb in diesem Zusammenhang von Kontaktqualität. Die aktuelle Differenzierung der Kontaktebenen bei den Printmedien, ist wie folgt definiert:
  • Werbeträgerkontakt (LpA) = Personen, die die betreffende(n) Ausgabe(n) eines Titels in der Hand hatten, um darin zu blättern oder zu lesen

  • Werbemittelkontaktchance (Leser pro Seite = LpS) = Die Wahrscheinlichkeit, in einer Ausgabe eines Titels eine durchschnittliche Seite aufzuschlagen, um darauf zu schauen oder zu lesen. Das gesamte Heft, also redaktionelle Nutzung und Anzeigenbeachtung werden dabei berücksichtigt.

  • Werbemittelkontakt (Leser pro werbungführende Seite = LpwS) = Die Wahrscheinlichkeit, in einer Ausgabe eines Titels eine durchschnittliche Anzeigenseite aufzuschlagen, um sie anzusehen (Lesemenge Anzeigen).

Die erste und die letzte Ebene werden aktuell in der ma Print ausgewiesen, während der LpS durch den LpwS überholt wurde. Das heißt wir benötigen für die Erhebung der Leserdaten nach wie vor den LpA, der dann durch Angaben zur Lesemenge in Richtung LpwS gewichtet wird.

Während die Lesemenge bis vor kurzem über eine Verbalskala abgefragt wurde, von fast keine bis (fast) alle Seiten gelesen, erfolgt dies inzwischen bei einer Teilstichprobe mittels eines Handscanners, dem sogenannten Mediascan, mit dem die Lesevorgänge einzuscannen sind. Über das Scannen der titelspezifischen Barcodes gewinnt man exakte Angaben über den Titel, die Ausgabe, den Lesezeitpunkt, die Lesedauer und die Häufigkeit des Lesens (bei demselben Titel). Angaben zur Lesemenge müssen allerdings weiterhin selbst vorgenommen und über den Handscanner eingegeben werden (Schneider 2017; www.agma-mmc.de/media-analyse/ma-pressemedien).

Die Medientranchen der ma

Nach dieser beispielhaften Darstellung des Erhebungsmodells der ma Print sollen nun die einzelnen Media-Tranchen der ma vorgestellt werden. Eine Besonderheit bildet die ma Internet, da diese in Kooperation mit der AGOF veröffentlicht wird, weshalb auf sie gesondert eingegangen wird. Die Tranchen der ma sind:
  • ma Pressemedien (Publikumszeitschriften, Zeitungen, Kino)

  • ma Audio (ersetzt seit 2018 die ma Radio)

  • ma Plakat (Aussenwerbung)

  • ma IntermediaPLuS/ maX CrossMeda-Tool

Die Medien Online/Internet und Fernsehen/Bewegtbild und deren Joint Industry Committees (AGOF und AGF) werden danach gesondert aufgeführt.

Die ma Pressemedien

Informationen zur Publikumszeitschriften- und Tageszeitungsnutzung werden über die ma Print zweimal jährlich veröffentlicht. Dabei basiert der Datensatz insgesamt auf rund 39.000 befragten Personen (= Fällen). Zusätzlich werden Daten zum Kinobesuch und zum Lesezirkel miterhoben. Die wichtigsten Informationen zur Erhebung, der Methode und Filterführung und zu den ausgewiesenen Kontakteinheiten wurden in den vorherigen Kapiteln zum Erhebungsmodell und zum Werbemittelkontakt schon am Beispiel Print dargestellt und können dort nachgelesen werden.

Allerdings gibt es seit 2016 noch eine zusätzliche Besonderheit, nämlich den Seitenmehrfachkontakt auf der Ebene LpA und dem LpwS. Da inzwischen über Mediascan nachgewiesen werden kann, dass bestimmte Titel öfters in die Hand genommen werden und insgesamt mehr Seiten genutzt werden als das Heft aufweist, ist man dazu übergegangen, diesen Seitenmehrfachkontakt als Kontakt pro Ausgabe (auch LpA Brutto benannt, analog dem LpA) bzw. Kontakt pro werbungführende Seite (analog LpwS) auszuweisen. Dieser Wert stellt einen Kontaktwert und kein Reichweitenwert dar. Der Wert ist deshalb aus unserer Sicht unnötig und zum Teil irreführend, da er u. a. bei Rangreihenzählungen im Planungsprogramm mds erscheint, ohne dass er explizit ausgewählt wurde. Wer da nicht darauf achtet merkt evtl. gar nicht, dass er mit dem KpwS statt mit dem LpwS arbeitet und hat plötzlich deutlich höhere Reichweitenwerte, die aber eigentlich Bruttokontakte darstellen.

CAWI-Boost und Mixed Mode

Die Erhebung der Printreichweiten durch Face-to-Face-Interviews ist sehr aufwendig und kostenintensiv. Auch sinkt die Bereitschaft vieler Menschen, an solchen Interviews teilzunehmen. Deshalb werden für die ma Presse aktuell CAWI-Interviews getestet, also Computer Assisted Web Interviews, die Online durchgeführt werden. Dabei kann die Befragungsanlage direkt aus CASI übernommen werden. Fact-to-Face-Interviews und CAWI unterscheiden sich aber in Hinblick auf die Stichprobe grundlegend. Während bei den persönlichen Interviews eine Random-Stichprobe auf Adressenbasis verwendet wird, kommen bei Online-Umfragen Online-Access-Panels zum Einsatz – also von Marktforschungsdienstleistern gepflegte Pools von befragungswilligen Online-Nutzern, deren Stammdaten bekannt sind. Für eine repräsentative Umfrage wird dann eine quotierte Zufallsstichprobe aus diesem Pool gezogen.

Die Online-Interviews werden primär unter dem Aspekt der Zielgruppenerreichung bestimmter Personen, die sonst nur schwer kontaktierbar sind, durchgeführt. Das sind Personen zwischen 20 und 34 Jahren, von denen aktuell ein kleiner Teil über Online Access Panels rekrutiert wird. Gleichzeitig werden einige Interviews über Mixed Mode durchgeführt. Mixed Mode bedeutet in diesem Zusammenhang, dass die Befragungspersonen zum Teil wie bisher bei Face-to-Face-Interviews via Adressen Random-Verfahren ausgewählt werden, ein weiterer Teil aber über Quotenverfahren. Beide Verfahren müssen parallel begleitet und überprüft werden, um festzustellen ob sich ähnliche oder eher (deutlich) abweichende Ergebnisse im Vergleich zur bisherigen Vorgehensweise ergeben. Hier werden in nächster Zeit noch weitere Methodentests notwendig sein.

Zeitungen in der ma Print

Die Daten zu den Tageszeitungen werden in der ma Print nach derselben Vorgehensweise erhoben wie die der Publikumszeitschriften. Der Weiteste Leserkreis (WLK) ist definiert nach zwei Wochen, in denen bei fast allen Titeln 12 Ausgaben erscheinen, meist von Montag bis Samstag. Die Nutzung der Wochenzeitungen und Sonntagszeitungen wird im Zeithorizont analog der wöchentlichen Publikumszeitschriften untersucht. Da aufgrund der Fallzahlen pro Jahr (n = 39.000) nur einige wenige größere Titel im regionalen Segment und in Kombinationen ausweisbar sind, werden die Daten der einzelnen ma-Tranchen aus sieben Wellen in vier Jahren zu einem großen Datensatz mit 132.000 Fällen zusammengefasst. In diesem Datensatz kann dann so gut wie jede regionale Tageszeitung ausgewiesen und gezählt werden.

ma Radio und ma Audio

Das Radio ist ebenso wie das Fernsehen und Online ein tagesaktuelles Medium, doch rechtfertigen die Werbeeinnahmen der Hörfunksender kein so aufwendiges Messverfahren, wie es sich die TV-Sender leisten. Das ist aber gar nicht notwendig, da die Radionutzung sich deutlich von der Fernsehnutzung unterscheidet. Im Fernsehen werden einzelne Sendungen eingeschaltet, während im Radio die meisten Hörer über lange Zeit bei ein und demselben Sender und Programm verharren. Deshalb fungiert als Standardinstrument zur Feststellung der Hörfunknutzung ebenfalls die Media-Analyse der agma. Das Interview erfolgt über CATI, also Telefoninterviews, und die Stichprobenziehung basiert auf einem speziell für die agma entwickelten Stichprobenverfahren für Telefoninterviews. Die sogenannte Elektronik-Tranche erscheint mittlerweile ebenso wie die Print-Tranche zweimal im Jahr. Diese Daten werden ergänzt durch Konsuminformationen aus der VuMA (Verbrauchs- und Medienanalyse), eine Markt-Media-Studie, die speziell für die Medien Hörfunk und TV durchgeführt wird (vgl. Gaßner 2011).

Die Erfassung der Hörfunknutzung erfolgt durch die Abfrage des Tagesablaufs gestern, wobei die Interviews gleichmäßig über alle Wochentage verteilt werden. Die Befragungspersonen werden zunächst nach ihrem gestrigen Verhalten befragt: Aufstehen, Frühstücken, Zur-Arbeit-Fahren, Einkaufen, usw. bis wieder Ins-Bett-Gehen. Die Tätigkeiten im Tagesverlauf dienen als Erinnerungsstütze für den Medienkonsum. Im Anschluss daran werden nämlich die Probanden gefragt, wann sie ferngesehen und wann sie Radio gehört haben. Während es bei TV nur um die generelle Nutzung geht, sind beim Hörfunk die zusätzlichen Angaben zu den gehörten Sendern und Programmen zu machen. Der gesamte Tag ist in Viertelstundenabschnitte gegliedert.

Die Senderangaben bei der Hörfunkbefragung sind relativ einfach zu erheben, da durchschnittlich pro Hörer nur 2–3 verschiedene Programme im weitesten Hörerkreis genutzt werden, das heißt jede Person nutzt normalerweise ein Hauptprogramm und ab und zu noch ein, zwei weitere Programme. Zum weitesten Hörerkreis (WHK) eines Senders gehören alle, die diesen Sender in den letzten 14 Tagen gehört haben.

Insgesamt basiert die ma Radio, die seit 2018 in ma Audio umbenannt wurde, auch wegen den disproportionalen Fällen, die in kleineren Gebieten aufgestockt werden müssen, auf rund 68.000 Befragungspersonen ab 14 Jahren und auf über 13.000 Personen mit Webradio- bzw. Musik-Streaming-Nutzung, die ein Tagebuch ausgefüllt haben (ma Audio 2018). Auf das Thema Webradio wird noch explizit eingegangen.

Eine Werbemittelkontaktdefinition, ähnlich wie in TV, die als durchschnittliche Sehbeteiligung im Werbeblock definiert ist, kann für Hörfunk so nicht hergestellt werden. Die kleinste Zeiteinheit, die Viertelstunde, gilt deshalb gegenwärtig als ‚härtester‘ Wert für Hörfunk und wird qua Definition als Werbemittelkontaktchance bezeichnet. Bisher haben die Nutzer mit dieser Definition kein Problem und deshalb gibt es bisher keine Anstrengungen hier etwas zu verändern oder zu verbessern.

Welche Daten stehen nun für die Hörfunkplanung zur Verfügung? Generell werden in der ma die Hörfunkreichweiten zwischen 6 und 18 Uhr ausgewiesen, was auch in etwa der faktisch nennenswerten Hörfunknutzung im Tagesverlauf entspricht. Wie bereits erwähnt, werden die Daten nach Viertelstundenabschnitten erhoben. Dies stellt die kleinste Zeiteinheit dar. Für jede einzelne Stunde von 6 bis 18 Uhr werden nun die Hörer pro Viertelstunde kumuliert, so dass sich eine Netto-Reichweite pro durchschnittlicher Stunde ergibt. Diese Reichweite pro Stunde ist qua Definition der Werbeträger-Kontakt im Hörfunk. Jede Person, die in der betreffenden Stunde mindestens eine Viertelstunde Radio genutzt hat, geht in die Reichweite pro Stunde ein. Die Werbemittelkontaktchance ist dagegen definiert, als durchschnittliche Viertelstunde innerhalb der betreffenden Stunde. Die Reichweiten der einzelnen Viertelstunden werden addiert und durch vier dividiert.

Radionutzung via Internet (Desktop und Mobile)

Ein großes Problem besteht bei der Erhebung der Nutzung von Online-Radio, da es eine schwer erfassbare Anzahl von Radioprogrammen gibt, die über das Internet gehört werden können. Schon jetzt ist es nichts Ungewöhnliches mehr, dass z. B. am Arbeitsplatz ein Radioprogramm direkt aus dem Internet via PC gehört wird. Sogenannte Internet-Radios (Geräte) stehen in immer mehr Haushalten und Smartphones ermöglichen ebenfalls eine Nutzung von Radioangeboten. Hier musste über neue Forschungsmethoden nachgedacht werden. Mittlerweile wird die Nutzung von Webradio-Angeboten innerhalb einer eigenen Studie, der ma IP Audio, gemessen. Man spricht hier von Logfile-basierter Webradio-Messung. Dafür wurden für die ma IP Audio 2018 zum Beispiel 810 angemeldete Channels gemessen. Allerdings gibt es in der ma IP Audio aufgrund der reinen Messdaten keine demografischen Daten. Diese werden über eine weitere Studie, das Online-Tagebuch zur Nutzung von Webradio zusammen mit dem medialen Nutzungsverhalten erhoben. Innerhalb von zwei Jahren (2016/2017) haben rund 13.000 Personen dieses Tagebuch 14 Tage lang ausgefüllt. Damit können die deutlich umfangreicheren und präziseren Messungen der ma IP Audio über die Tagebuchdaten modelliert und mit demografischen Informationen versehen werden.

ma Audio vereint ma Radio und ma IP Audio

Inzwischen werden die Daten der ma Radio und die der ma IP Audio nicht nur einzeln veröffentlicht, sondern erscheinen zusammengefasst unter dem Begriff ma Audio. Die ma Audio basiert auf der ma Radio, die unter anderem Informationen zum Online Universum erhebt. Darüber kann zunächst die voraussichtlich kontinuierlich wachsende Grundgesamtheit der Online Radio-Nutzer definiert werden. Ausgewiesen werden für die klassischen Radionutzer dieselben Kontaktdefinitionen wie bisher, mit der durchschnittlichen Viertelstunde in der Stunde als kleinster Zeiteinheit. Die kleinste Zeiteinheit bei Online-Audio stellt dagegen die Hörerschaft pro Tag dar. Über diese Definition sind dann auch Leistungswerte für konvergente Angebote der einzelnen Sender und Programme darstellbar. Die ma Audio wird ebenso wie bisher die ma Radio zweimal jährlich erscheinen.

Die ma Plakat

Das Medium Plakat stellte die Forschungsbemühungen vor neue, nicht unerhebliche Probleme. Denn im Unterschied zu den anderen klassischen Medien wird Plakat nicht gezielt rezipiert, da es kein redaktionelles Umfeld besitzt. Man geht aus dem Haus, um ein Ziel zu erreichen, nicht um Plakate zu sehen. Bei solchen Wegen hat man mitunter Kontakte mit dem Medium Plakat oder auch nicht. Mit welcher Methode misst man aber den Kontakt mit Plakaten, wenn dieser eher zufällig und flüchtig erfolgt? Ein weiteres Problem bestand darin, dass Personen zwar Zeitschriftentitel, TV- und Hörfunksender differenzieren können. Doch sie werden verständlicherweise unsicher, wenn es um die Zuordnung der verschiedenen Anschlagsarten geht, die nur der Experte unterscheiden kann und z. B. als Superposter, Großfläche, City Light Poster oder Mega Light Poster bezeichnet. Darüber hinaus galt es, die Dekade als Plakatbelegungszeitraum (10 oder 11 Tage) in den Griff zu bekommen. Es handelt sich ja um einen relativ abstrakten Erinnerungszeitraum, der etwas mit der Organisation der Plakatbranche zu tun hat, aber nichts mit den Lebensumständen der Befragten, die natürlich ihre Zeit in Tagen, Wochen oder Monaten einteilt. Eine Abfrage der Dekade erschien also dem Befragten nicht zumutbar.

All diese Probleme wurden zunächst durch die PMA 1994 gelöst. Sie basierte auf einer Methode, die die Marktforscherin Gunda Opfer entwickelte und als „Plakat-Abfrage anhand erinnerter Wege“ bezeichnet wurde. Die Befragungspersonen werden zunächst danach befragt, welche Strecken sie bei welchem Anlass (wie z. B. zur Arbeit fahren, zum Einkaufen gehen) in den letzten sieben Tagen zurückgelegt haben. Die individuelle Erinnerungsleistung fokussierte bis heute auf die zurückgelegten Wege. Daran anschließend wurden die Personen aufgefordert, darüber nachzudenken, welche und wie viele Anschlagstellen es an den zurückgelegten Wegen gibt und welche davon gesehen wurden. Daraus ergab sich die Reichweite. Über die Frequenzfrage, welcher Weg in den 7 Tagen wie oft zurückgelegt wurde, wurde dann die Anzahl der Kontakt mit den Plakatstellen ermittelt (vgl. Schloßbauer 1998).

Das Problem der Differenzierung der Anschlagsarten bzw. Medien der Außenwerbung konnte über visuelle Identifikationshilfen gelöst werden. Dabei handelte es sich um Vorlagen auf denen typische Plakatstellen abgebildet waren.

Als Ergebnis erhielt man zunächst Leistungswerte für die verschiedenen Anschlagsarten Großfläche, City Light Poster, Ganzsäule und Allgemeinstelle, und zwar innerhalb einer Woche. Gleichzeitig wurde von der Abstraktion einer Vollbelegung ausgegangen, d. h. die Reichweite bezog sich eigentlich auf eine Werbekampagne, die auf allen in Deutschland vorhandenen Stellen plakatiert war. Eine solche Kampagne ist eigentlich unrealistisch und auch nicht bezahlbar, doch diente das Konstrukt der Vollbelegung nur als theoretischer Bezugspunkt, um darauf basierend realistische Teilbelegungsreichweiten zu berechnen. Das Problem des Erinnerungszeitraums (Woche vs. Dekade) löste man insofern, dass man die Reichweitenwerte pro Woche auf die Dekade übertrug und gleichzeitig die Kontakte pro Woche mit 1,5 multiplizierte, was dann dem durchschnittlichen Dekadenzeitraum (10,5 Tage) exakt entsprach. Das bedeutet, dass die Reichweiteninformation auf dem Zeitraum einer Woche basierte, während die Kontakte der tatsächlichen Anschlagsdauer entsprachen.

Von der PMA zur ma Plakat

Die PMA wurde 2007 in die agma integriert und damit zur ma Plakat. Zunächst wurde sie auf der bestehenden methodischen Basis weitergeführt. Nach und nach stellten sich dann Fragen zur methodischen Vorgehensweise, die dazu führten, dass das gesamte Modell überarbeitet wurde. Unterschiedliche Ansätze wurden überprüft und zum Teil wieder verworfen. Zur Feststellung zurückgelegter Wege kam man dann auf die Idee über GPS als technisches Erfassungssystem nachzudenken.

Das inzwischen jedem aus der Autonavigation bekannte GPS (Global Positioning System) ist ein Satelliten-gestütztes Verfahren, mit dem man problemlos Passagefrequenzen messen kann. Die Idee bestand also darin, dass man eine Erhebung realisiert, bei der die Probanden eine oder zwei Wochen ein GPS-Gerät mit sich herumtragen und damit die zurückgelegten Wege erfasst werden können. Parallel dazu wurde eine CATI-Befragung etabliert, mit der inzwischen die Ein-Tages-Mobilität des letzten Tages mit Hilfe kartenbasierter Software erhoben wird. Das heißt der Interviewer versucht am Telefon und mithilfe von Karten auf seinem PC die von der Befragungsperson genannten Wege nachzuvollziehen. Unter Berücksichtigung weiterer Informationen aus dem FAW Frequenzatlas (Passagefrequenzen) und dem standortspezifischen k-Wert entsteht so, auf Basis eines Drei-Säulen-Modells, die ma Plakat. Der k-Wert fungiert als Sichtbarkeitsgewichtung des Passagekontakts und drückt damit eine Wahrscheinlichkeit aus das Plakat sehen zu können. Pro Person kann der k-Wert entsprechend maximal einen Wert von 1 annehmen. Die multiplikative Verrechnung des k-Werts mit den ermittelten Passagefrequenzen führt dann zum „Plakatseher pro Stelle (PpS)“.

Der Plakatkontakt ist damit seit Anfang 2013 definiert als „Plakatseher pro Stelle (PpS)“. Gegenwärtig basieren die Daten der ma Plakat auf insgesamt 6 Erhebungsjahren mit jeweils rund 10.000 Interviews und jeweils ca. 2000 GPS-Probanden p. a., die zusammengefasst dann rund 71.000 Personen ausmachen (vgl. Arbeitsgemeinschaft Media-Analyse e.V. 2018b).

Aktuell enthält die ma Plakat neben Großflächen, CLP, Ganzsäulen und Allgemeinstellen, noch Digitale CLP und Mega-Light-Poster (ML) bzw. City-Light-Boards (CLB), wobei letztere im Großflächenformat mehrere Plakate im Wechsel enthalten. Diese Stellen gibt es zusätzlich als digitale Stellen.

Digitale Außenwerbung – Die DOOH-Studie des DMI

Derzeit bildet die ma Plakat noch nicht das immer weiterwachsende Angebot von digitalen Außenwerbemedien ab. Um diese Lücke zu füllen hat das Digital Media Institute (DMI) – eine Einrichtung, die von verschiedenen Vermarktern digitaler Außenwerbung getragen wird – die Studie „Public and Private Screens 2016/2017“ vorgelegt (vgl. Goldberg et al. 2017). Sie soll einerseits die Nutzung von Digital Out-of-Home Medien (DOOH) aufzeigen und andererseits den Zusammenhang zwischen DOOH und der mobilen Internetnutzung via Smartphone darstellen. Dafür wurden rund 11.300 Personen über CAWI und CATI zur DOOH-Nutzung befragt und 1.500 Personen zum Außerhaus-Mobileverhalten 14 Tage lang technisch verfolgt. Als Ergebnis erhält man Reichweiten und Kontakte zu unterschiedlichen Public Screens, die u. a. an Flughäfen, Raststätten, Universitäten oder Bahnhöfen vorzufinden sind und Ergebnisse über den zeitlichen, räumlichen und inhaltlichen Tagesverlauf, die dabei helfen, die relevanten Touchpoints zu selektieren. Insgesamt betrachtet werden damit Informationen geliefert, die über keine andere öffentliche Studie in Deutschland zur Verfügung stehen. Die Arbeitsgemeinschaft Media-Analyse beschäftigt sich mittlerweile ebenfalls mit dem Thema digitaler Außenwerbung und deren Integration in die ma Plakat, noch sind aber keine konkreten Pläne bekannt.

Die ma Intermedia

Die einzelnen ma-Studien liefern verlässliche und detaillierte Daten für die intramediale Planung, also die Auswahl der geeigneten Werbeträger innerhalb einer Mediengattung (vgl. Kap. „Media Planung“ in diesem Band). Doch helfen sie wenig bei der wichtigen strategischen Frage, welche Mediengattungen für eine Kampagne eingesetzt werden sollen. Hier spricht man auch von der intermedialen Planung und der Bestimmung des Media-Mixes. Um hier dem Markt die gewünschten Informationen zu liefern, publizierte die Arbeitsgemeinschaft Media-Analyse bereits seit den 90er-Jahren einen Intermedia-Datensatz, bei dem die Daten verschiedener Einzeltranchen mittels Datenfusion auswertbar waren. Dieser Datensatz stand lange unter Kritik, da die verschiedenen Mediengattungen nicht optimal abgebildet wurden (z. B. Online-Medien fehlten gänzlich) und die Vergleichbarkeit der Kontaktdefinitionen (die wie immer bei der agma durch eine konsensuale Entscheidung der Gremien definiert wurden) wurde im Markt angezweifelt.

Mit der ma 2014 Intermedia PLuS wurden erstmalig Online-Angebote und Belegungseinheiten in den ma Intermedia-Datensatz integriert. Dabei werden alle ma Einzelstudien über eine mehrstufige Datenfusion zusammengefasst. Dies geschieht u. a. auf Basis der Überschneidungen nach dem sogenannten „Händler-Modell“. Das vom Mediaforscher Frank Händler 2012 vorgeschlagene Modell empfahl die zusätzliche Befragung von jeweils einem Viertel der Befragungspersonen pro ma-Tranche (also ma Presse, ma Radio, ma Plakat und ma Internet) zu einer jeweils anderen Mediengattung. Also jeweils ein Viertel, der z. B. in der ma Radio befragten Personen wird zusätzlich zu Zeitschriften und Zeitungen, zu Plakat, zu TV und zum Internet befragt. Damit liegen originäre Überschneidungen zwischen jeweils zwei Mediengattungen vor, die es zuvor nicht gab.

Zusätzlich werden die Informationen des sogenannten HUB-Survey, einer Tagesablaufstudie, mit der primären Zielsetzung Überschneidungsinformationen zu allen Mediengattungen zu liefern, integriert. Insgesamt basiert die ma Intermedia auf rund 340.000 Fällen. Auf der Kontaktebene sind die Werbemittel-Kontaktchancen aller Mediengattungen enthalten. Dies sind:
  • Leser pro werbungführende Seite LpwS (und KpwS) bei Print

  • Hörer pro durchschnittliche Viertelstunde bei Radio

  • Plakatseher pro Stelle bei Plakat

  • Unique User mit Kontakt (pro Seite) größer 1 Sekunde im Internet

  • Durchschnittliche Werbeblock-Ratings bei TV (steht aber nur für die Nutzergruppe zur Verfügung, also den Werbungtreibenden und Agenturen)

Die Erweiterung der ma Intermedia um Online ermöglichte als erste Studie dieser Art die Feststellung von Überschneidungen der bisher enthaltenen klassischen Mediengattungen mit Online. Für die Medienanbieter bot die ma Intermedia damit zum ersten Mal offizielle Daten zu spezifischen Markenreichweiten. Den Nutzern steht mit der Intermedia-Datei eine konsensual definierte und anerkannte Studie zur Verfügung, die dem Markt eine umfassende strategische Mix-Planung und -Evaluierung ermöglicht (vgl. Lassalle 2014).

HUB-Survey und maX

Eine Besonderheit der ma Intermedia ist das bereits erwähnte HUB-Survey, eine umfangreiche Single-Source-Studie, die Informationen zur Nutzung aller in der ma abgebildeten Mediengattungen aufwändig erhebt. Die HUB Survey entsteht auf der Basis folgender Vorgehensweisen: Zunächst erfolgt eine Eingangsbefragung im Haushalt zur Mediennutzung und zu den demografischen Merkmalen mittels CAPI bzw. CASI. Danach erhalten die Probanden ein Handy, das sie 14 Tage mit sich tragen sollen und jede Stunde Angaben zur Mediennutzung der vergangenen Stunde (nach Viertelstundenabschnitten) machen sollten. Personen, die dies nicht machen wollen, wird alternativ ein Papier-Tagebuch angeboten. Bei Rückgabe des Handys erfolgt dann noch ein Ausgangsinterview. Gleichzeitig wird noch versucht Personen für die technische Messung des Online-Nutzungsverhaltens zu rekrutieren. Insgesamt kommt man so auf knapp 13.000 Fälle in 4 Jahren (vgl. Hansen 2018).

Nach Veröffentlichung der ma Intermedia PLuS wurden im Markt Rufe laut, das HUB-Survey über seine bisherige Funktion, Überschneidungsinformationen für die Fusion zu liefern, hinaus zu nutzen. Schließlich erhebt es noch deutlich mehr Informationen, die für eine Fülle von strategischen Aspekten zur Mediennutzung im Tagesablauf (zeitlich und räumlich) wertvoll wären.

Dies ist seit Anfang 2018 mit dem von der agma herausgegebenen Crossmedia-Tool maX realisiert. Die Daten der Tagebuchstudie, stehen jetzt als strategisches Tool zur Analyse der Mediennutzung im Tagesverlauf zur Verfügung. Auf Basis von aktuell rund 13.000 Fällen kann damit nicht nur festgestellt werden, wann welche Personen im Tagesablauf welche Medien nutzen, sondern auch welche Medien parallel genutzt werden und wie z. B. die Nutzung an Werktagen im Vergleich zum Wochenende aussieht. Letzteres ist für die Werbebranche bei Mediengattungen wie TV und Hörfunk zwar nichts Neues, kann aber zu relevanten Erkenntnissen für andere Gattungen führen. Enthalten sind alle von der agma erhobenen bzw. ausgewiesenen klassischen Mediengattungen, mit Ausnahme von Kino (vgl. Nötting 2018). Kino kann deshalb nicht enthalten sein, weil es weder im Tagesablauf noch nach Wochentagen erhoben wird.

Die ma und die Zukunft

Die Media-Analyse ma hat sich in den über 60 Jahren ihres Bestehens kontinuierlich verändert und ausdifferenziert. Von einer recht einfachen Leserschaftsstudie für eine überschaubare Anzahl von Printmedien ist ein System verschiedener Einzelstudien geworden, die eine Vielzahl unterschiedlicher Werbeträger und Methoden integriert und verschiedene Funktionen für Mediaplanung und Werbevermarktung abdeckt. Neue Entwicklungen im Werbe- und Medienmarkt wurden integriert, ebenso wurden methodische Innovationen genutzt. Durch die Organisation als Joint Industry Committee laufen die Prozesse zur Innovation mitunter etwas langsam – im Gegensatz zu den immer rasanter werdenden Veränderungen im Medienmarkt. Das führte immer wieder zu Kritik an der Institution und deren Studien, trotz der Fülle an Verbesserungen der vergangenen Jahre. Agenturen und Werbungtreibende fordern von der agma und den anderen Institutionen der Mediaforschung eine engere Zusammenarbeit und ein schnelles Lösen noch offener Probleme. Dazu gehört die Integration der internationalen Digital-Vermarkter Google und Facebook, die sich bisher gegen eine Integration ihrer Angebote in den deutschen Studien sperren (vgl. Nötting 2018b). In den nächsten Jahren ist mit weiteren dynamischen Veränderungen zu rechnen, weshalb die hier aufgeführten Informationen schon bald veraltet sein können. Um hier auf dem Laufenden zu bleiben, ist es unerlässlich, die Entwicklungen in der Branchenpresse zu verfolgen und sich gegebenenfalls auf der Website der involvierten Institutionen zu informieren (vgl. www.agma-mmc.de/).

Online-Forschung/AGOF/ma Internet/Digital Facts

Seit 1995 entwickelte sich das Internet zunehmend zu einem werberelevanten Medium. Entgegen der oft verbreiteten Meinung, im Internet ließe sich alles leicht messen, dauerte es viele Jahre, bis für diese Mediengattung Leistungswerte bereitgestellt wurden, die denen der anderen Medien vergleichbar waren. Die Besonderheiten des Mediums (z. B. das große Angebot an Werbeträgern und Werbeformaten, die personalisierte Aussteuerung von Werbemitteln, die sehr fragmentierte Nutzung und das Verwenden von unterschiedlichen Endgeräten) führten zu einer Reihe von Problemen, die zum Teil bis heute nicht zufriedenstellend gelöst wurden.

Von IVW-Zahlen zu den „Daily Digital Facts“

Anfänglich standen nur grobe Zahlen über die technischen Zugriffe auf Webangebote zur Verfügung – Page Impressions (Seitenaufrufe) und Visits (zeitliche Sequenzen von Seitenaufrufen), wie sie noch heute von der IVW ausgewiesen werden (vgl. www.ivw.de/). Diese Werte sagten aber nichts über die Menschen aus, die diese Angebote nutzten. Das änderte sich erst, als 2005 zum ersten Mal Struktur- und Reichweitendaten für Online-Angebote veröffentlicht wurden (vgl. Frey-Vor et al. 2008). Nach einigen organisatorischen Metamorphosen gründete sich die Arbeitsgemeinschaft Online-Forschung (vgl. www.agof.de/). In Kooperation mit der Arbeitsgemeinschaft Media-Analyse wurde die ma Online geschaffen, die gleichzeitig (mit identischen Daten, aber erweiterten Zielgruppendaten) auch als „AGOF internet facts“ veröffentlicht wurde. Internet facts und ma Online bildeten Online-Gesamtangebote (also Websites wie z. B. Spiegel Online oder T-Online) und Belegungseinheiten (z. B. einzelne Rubriken innerhalb eines Gesamtangebots) ab, später kamen die „AGOF mobile facts“ hinzu, die mobile Webangebote und Apps abdecken.

Seit 2016 werden die in der „AGOF mobile facts“ abgebildeten mobilen Angebote in die ma Online bzw. in die AGOF internet facts integriert, die deshalb in ma Internet bzw. AGOF digital facts umbenannt wurden. Zunächst aber zur ursprünglichen ma Online bzw. AGOF internet facts. Die Studie basierte auf einem Drei-Säulen-Modell, mit unterschiedlichen Datenquellen und Daten, die miteinander fusioniert, profiliert und verrechnet werden mussten. Mit den mobilen Daten für die ma Internet bzw. AGOF digital facts ist mit dem Smartphone-Panel jetzt noch eine weitere Säule dazugekommen.

Das Drei- und Vier-Säulen-Modell

Die erste Säule des Drei-Säulen-Modells besteht aus der technischen Messung von Visits und Page Impressions aller bei der IVW angemeldeten Online-Angebote, die sich an der Studie beteiligen. Diese technische Messung misst das vollständige Surfverhalten von Unique Clients (also von identifizierbaren Browsern oder Computern) bei über 1000 verschiedenen Websites, die sich an der ma Internet beteiligen. Diese Websites generierten zum Beispiel Ende 2016 über 7 Milliarden Visits pro Monat und kamen auf rund 43 Mrd. Page Impressions (PI). Die Grundgesamtheit ist seit Anfang 2019 definiert als Personen ab 16 Jahren, die mobile und/ oder stationäre Online-Angebote in den letzten drei Monaten genutzt haben. Die Zugriffe werden mit dem Skalierbaren Zentralen Messsystem (SZM) ermittelt, welches wie folgt funktioniert:

Auf jeder Seite eines teilnehmenden Website-Anbieters werden spezifische Pixel eingefügt. Über diese Pixel ermitteln Zählboxen die Anzahl abgerufener Seiten (PIs) und die Summe zusammenhängender Nutzungsvorgänge (Visits) pro Client bzw. Browser. Wobei als Visit der Besuch einer einzelnen Website definiert ist, unabhängig davon wie viele Seiten auf der Website genutzt werden. Der Client ist in diesem Fall der Rechner, auf dem zur Online-Nutzung mindestens ein Browser genutzt werden muss (z. B. Internet Explorer oder Firefox). Tatsächlich kann die Zählbox nämlich nur Browser-spezifische Daten ermitteln. Das heißt sofern auf einem Rechner mit mehr als einem Browser gesurft wird, erhält man auch mehr als einen Datensatz. Über die Cookie-Setzung kann zusätzlich der Nutzungsverlauf eines Browsers verfolgt werden. Als Ergebnis erhält man Page Impressions und Visits im INFOnline-Universum, also von allen beteiligten Websites und zusätzlich browserspezifische Datensätze, die im zeitlichen Verlauf die Nutzung aller Angebote der beteiligten Websites aufzeigen.

Damit ist bekannt, wann ein Client wie lange im Internet auf welchen Angeboten und Seiten war und wie das konkrete Surfverhalten aussieht. Sobald nun auf eine Website gewechselt wird, die nicht im INFOnline-Universum enthalten ist, geht diese Information allerdings verloren. Taucht der Client dann aber wieder im Universum auf, kann er wieder weiterverfolgt werden.

Die zweite Säule ist die telefonische Basisbefragung, die immer noch regelmäßig durchgeführt werden muss. Hier geht es darum konkret festzustellen, wie viele Personen online sind, wie sich diese Personen demografisch und zum Teil konsumspezifisch zusammensetzen, wo sie Online nutzen, wie oft, mit wie vielen und welchen Geräten und mit wie vielen und welchen Browsern? Diese Daten benötigt man aktuell, da sich die Online-Grundgesamtheit weiterhin kontinuierlich verändert und immer größer wird. Gleichzeitig bietet diese Befragung demografische und personenspezifische Daten, während die rein quantitativen Daten der ersten Säule (Page Impressions, Visits) nur auf Informationen zu Rechnern bzw. Browsern beruhen.

Die dritte Säule bildet die OnSite-Befragung, mittels der auf den einzelnen, teilnehmenden Websites Nutzer dazu aufgefordert werden einen Fragebogen zu beantworten. Darüber können dann verschiedene wichtige Informationen eingesammelt werden über die Website-spezifischen Nutzer, die letztlich dazu dienen, die Daten der drei (isolierten) Säulen zusammen zu führen. Denn zu diesen Personen stehen gleichzeitig demografische und nutzungsspezifische Daten zur Verfügung. Diese Informationen benötigt man zur Übertragung von personenspezifischen Daten auf Website-spezifische Nutzungsmuster, für die keine demografischen oder ähnliche Daten vorhanden sind. Dies geschieht mittels komplexer statistischer Verfahren und wird Profiling genannt. Vereinfacht dargestellt, werden aus der Untersuchung bekannte personenspezifische Daten über die damit korrespondierenden Nutzungsmuster auf ähnliche Nutzungsmuster übertragen, zu denen man diese Personendaten nicht hat.

Die aktuelle vierte Säule bildet das Smartphone-User-Panel, über das die mobile Internet-Nutzung erhoben wird. Dies korrespondiert mit der Entwicklung bei der AGOF, die die Daten für die ma bereithält. Seit Mitte 2015 gibt es die Digital Facts (entspricht der ma Internet), in denen die AGOF Internet Facts (entspricht der ma Online) und die AGOF Mobile Facts vereint sind. Die Vorgehensweise im Mobile-Bereich erfolgt analog der Internet Facts, es wird lediglich statt der OnSite-Befragung eine InApp-Befragung durchgeführt.

Letztlich gewinnt man über die gesamte Vorgehensweise eine Fallzahl von rund 105.000 Personen ab 14 Jahren pro (monatlicher) Veröffentlichung, für die umfassende Daten zur Online-Nutzung vorhanden sind. Diese Personen repräsentierten Ende 2017 55,82 Mio. deutschsprachige Personen ab 14 Jahren, die in den letzten drei Monaten entweder stationär oder mobil ins Internet gegangen sind. Insgesamt stehen Informationen zu über 700 digitalen Gesamtangeboten und rund 6100 Belegungseinheiten über die ma Internet zur Verfügung. Die einzelnen Angebote können analog anderer Mediengattungen über Reichweiten, Strukturen und Überschneidungen ausgewertet werden. Die kleinste Einheit auf der Kontaktebene bildet der Unique User pro Tag.

Daily Digital Facts

Seit 2018 gibt die AGOF die „Daily Digital Facts“ heraus. Sie beinhalten tägliche Leistungsdaten aller beteiligten Online-Angebote bereit. Die Daten des Vortags werden täglich vormittags veröffentlicht. Auch sind so individuelle Zeiträume für die Mediaplanung verwendbar (z. B. Ferienzeiten). Damit entsprach die AGOF dem Wunsch der Werbungtreibenden und Agenturen, ähnlich wie bei TV, aktuellere Daten zur Verfügung zu stellen (vgl. Horizont 2018d). Im Mai 2018 wurde die Grundgesamtheit der Daily Digital Facts von Personen ab 14 Jahren auf Personen ab 16 Jahren rückwirkend für das Jahr 2018 umgestellt, um den Ansprüchen der DSGVO zu genügen. „Die AGOF greift damit aktiv eine Forderung der bevorstehenden Datenschutz-Grundverordnung der Europäischen Union auf. Diese sieht einen besonderen Schutz von Jugendlichen vor und hebt dafür das Mindestalter für die Abgabe einer wirksamen Einwilligung in die Verarbeitung der eigenen Daten auf 16 Jahre an“ (vgl. Arbeitsgemeinschaft Onlineforschung e. V. 2018).

Die Zukunft der AGOF

Wie die agma hat auch die AGOF sich in den letzten Jahren immer mehr ausdifferenziert und viele Forderungen der Werbungtreibenden und Agenturen umgesetzt. Doch gibt es nach wie vor Probleme, die es zu lösen gilt. Das vordringlichste ist die Integration von Google (inklusive YouTube) und Facebook in das System der AGOF. Beide Unternehmen lehnen bisher eine Ausweisung ihrer Angebote ab, doch laufen seit einigen Jahren Verhandlungen über eine Integration (vgl. Horizont 2018e). Grundsätzlich wird vor dem Hintergrund der wachsenden Bedeutung des Programmatic Advertising diskutiert, inwieweit die Strukturdaten der „Digital Facts“ noch relevant sind – schließlich könne man beliebige Zielgruppen unabhängig vom Umfeld erreichen. Strukturdaten und Reichweiten für einzelne Online-Angebote wären dann nicht mehr nötig. Hier sollte aber bedacht werden, dass in Deutschland nach wie vor – trotz steigender Anteile von programmatischen Kampagnen – das meiste Geld mit der Vermarktung von einzelnen Angeboten und Belegungseinheiten verdient wird (vgl. Bachem 2018). Gleichzeitig sind auf die Implikationen aus der DSGVO zu verweisen, die einerseits das Erhebungsverfahren der AGOF erheblich tangieren können (z. B. Cookie-Setzung), aber dementsprechend auch gerade die bisher bestehenden programmatischen Vorgehensweisen stark beeinflussen werden.

Fernseh- und Bewegtbildforschung/AGF/Alternativ-Ansätze

Der Markt der TV- und Videoangebote wird immer komplexer und vielschichtiger (vgl. Krone 2009). Fernsehzuschauerforschung hat die Aufgabe, die deutsche Fernsehlandschaft in ihrer gesamten Komplexität abzubilden. Die Daten werden zum Einsatz von Werbemaßnahmen ebenso genutzt wie von den beteiligten Sendern zur Programmplanung. Sogar in den Publikumsmedien wird regelmäßig über die sogenannten Einschaltquoten berichtet, oft kritisch. Man wirft den Sendern eine „Quotenfixierung“ vor, die nur auf hohe Zuschauerzahlen zielt und die Qualität der Programme vernachlässigt. Die über die Zuschauerforschung ermittelten Marktanteile haben mittlerweile sogar eine kartellrechtliche und somit politische Funktion – anhand von ihnen wachen Aufsichtsbehörden darüber, dass kein TV-Veranstalter eine marktbeherrschende Stellung bekommt. Da TV-Sendungen ebenso wie generell audiovisuelle Kommunikation bzw. Video seit längerer Zeit auf unterschiedlichen Bildschirmen (Screens) genutzt werden können, wird sich anschließend mit dem Thema Bewegtbild und Multiscreen-Forschung beschäftigt. Interessanterweise hat es sich im deutschsprachigen Raum eingebürgert, von Bewegtbild zu sprechen und nicht (wie international üblich) von Video. Im Folgenden soll immer dann, wenn audiovisuelle Information über das TV-Gerät und das Internet verbreitet wird, von Bewegtbild gesprochen werden. Zur Differenzierung wird vorgeschlagen, dass im Zusammenhang mit der Nutzungsforschung über alle möglichen Screens hinweg, von Multiscreen-Forschung gesprochen wird. Als Bildschirme oder Screens werden entsprechend definiert: das TV-Gerät, der stationäre Computer, Laptop, Tablet, Smartphone und Video Games-Konsolen. Sicherlich wird es in Zukunft weitere, für die Kommunikation relevante technische Endgeräte geben – wie z. B. Smart Watches. Derzeit haben diese aber noch keine Bedeutung. Multiscreen-Forschung beschäftigt seit einigen Jahren Verbände und Mediengattungen, Werbungtreibende und (Media-) Agenturen (vgl. Brügner 2015). Erste Ergebnisse sind schon zustande gekommen, doch ist davon auszugehen, dass diese Ansätze kontinuierlich weiter modifiziert und optimiert werden müssen.

TV und die GfK-Fernsehforschung

Im Rahmen der deutschen Fernsehforschung wird jede Art der Fernsehnutzung über alle in Deutschland empfangbaren Sender in einer flächen- und bevölkerungsrepräsentativen Stichprobe erhoben, um eine einheitliche Währung als Arbeitsgrundlage für Sender, Werbungtreibende und Werbeagenturen zu schaffen. Als Auftraggeber der TV-Nutzungsforschung fungiert die AGF, die Arbeitsgemeinschaft Videoforschung (die bis 2017 unter Arbeitsgemeinschaft Fernsehforschung firmierte; vgl. Frei-Vor 2008, Schulz und Schneller 2009). Die AGF ist der Zusammenschluss der großen Fernsehsender in Deutschland, bei der Werbungtreibende und Agenturen auch Mitbestimmungsrechte haben. Die AGF beauftragt ein Marktforschungsunternehmen mit der Erhebung der Fernsehnutzung, seit vielen Jahren ist das die Gesellschaft für Konsumforschung in Nürnberg (GfK), weshalb oft einfach von den GfK-Zahlen gesprochen wird. Die Daten der AGF/GfK-Fernsehforschung werden über das GfK-Fernsehforschungspanel erhoben. Es handelt sich derzeit um ein Panel mit rund 5.000 Haushalten und ca. 10.500 berichtenden Personen ab 3 Jahren, die die Grundgesamtheit „deutschsprachige Wohnbevölkerung ab 3 Jahren“ abbilden (vgl. www.agf.de/).

Gemessen wird durch ein apparatives Verfahren mit dem sogenannten Telemeter-Gerät (auch „Peoplemeter“ genannt). Dieses Gerät registriert die TV-Nutzung, Einschalt- und Umschaltvorgänge im Sekundentakt für alle Zuschauer, die sich über die Fernbedienung an- und abmelden müssen. Für die Teilnehmer des Panels liegen neben demografischen Merkmalen konsumspezifische Variablen vor, ähnlich der Markt-Media-Studien im Printbereich. Auch die Zuordnung zu SINUS-Milieus ist seit vielen Jahren möglich. Diese Daten werden bei der Rekrutierung der Teilnehmer via Fragebogen erhoben und gelegentlich aktualisiert. Es gibt eine tägliche Berichterstattung, ab 9 Uhr morgens liegen vorläufige TV-Daten für den Vortag (der bis nachts 3 Uhr definiert ist) vor, die sich innerhalb der nächsten Tage noch marginal verändern.

Der Messvorgang im Panel

Was wird nun im TV-Panel wie gemessen? Zur Beantwortung dieser Frage beschäftigen wir uns zunächst mit der Definition der TV-Nutzung. Eine Person sieht fern, wenn sie sich anmeldet und das TV-Gerät auf einem Programm oder auf AV steht und der DVD-Recorder auf Wiedergabe. Außer-Haus-Nutzung wird nicht erfasst. Das GfK-Meter misst seit 1995 im Sekundentakt (davor im 30-Sekundentakt), alle Ein-, Um-, und Ausschaltvorgänge, die Anmeldung und Abmeldung von Personen und die DVD-Nutzung.

Dabei muss man sich das Telemeter-Gerät als eine Art Decoder zwischen dem Fernsehgerät und dem Telefonanschluss vorstellen. Es misst ab dem Moment, wo das Fernsehgerät angeschaltet wird, Sekunde für Sekunde, welches TV-Programm gerade läuft. Damit erhalten wir zunächst eine haushaltsspezifische Information („im Haushalt läuft der Fernseher“), die von sekundärem Interesse ist. Primär geht es doch um die personenindividuelle TV-Nutzung im Haushalt. Diese wird dadurch festgestellt bzw. gemessen, dass jede Person im Haushalt angehalten ist, sich zusätzlich über eine Art Fernbedienung anzumelden, wenn sie fernsieht. Erst darüber erfahren wir, wer im Haushalt wirklich TV nutzt.

Berechnung der TV-Reichweiten

Die TV-Reichweiten, die im Übrigen wie in den USA „Ratings“ genannt werden, entstehen ähnlich der Print-Reichweiten über Nutzungswahrscheinlichkeiten (p-Werte). Im Unterschied zu den Printmedien werden hier aber nicht die Anzahl genutzter Ausgaben gemessen (Print: wie viele von 12 Ausgaben), sondern die genutzte Zeit im Verhältnis zur gesamt möglichen Nutzungsdauer. Als Beispiel soll eine Person herangezogen werden, die insgesamt 20 Minuten einer 40 Minuten langen TV-Serie sieht. Diese Person würde einen p-Wert von 0,5 erhalten, da dieser p-Wert die Chance ausdrückt, die Hälfte der Serie zu sehen. Bezieht man diese Vorgehensweise auf alle Personen im Fernsehpanel oder auf beliebige demografische oder konsumspezifische Teilgruppen, so ergibt sich die Reichweite wie folgt: Summe der insgesamt gesehenen Zeit über alle Panel-Teilnehmer dividiert durch die maximal mögliche Zeitdauer, wenn alle Personen die gesamte Sendung gesehen hätten. Dies funktioniert dann analog für spezielle Zielgruppen. Dazu ein Beispiel: Angenommen ein TV-Werbeblock dauert 3 Minuten und es soll die Reichweite berechnet werden für alle Panel-Teilnehmer (also Personen 3 Jahre und älter), die insgesamt aus 10.000 Personen bestehen. Dann addiert man zunächst die gesamte Sehdauer, die die 10.000 Personen im Panel bezogen auf exakt diesen Werbeblock aufweisen und dividiert diesen Summenwert durch 10.000 mal 3 Minuten, da unter der Voraussetzung, dass alle 10.000 Personen den gesamten Werbeblock gesehen hätten, es maximal 10.000 mal 3 gleich 30.000 Minuten sein könnten, die hätten gesehen werden können. Dies würde dann einer Reichweite von 100 % entsprechen.

Das tatsächliche prozentuale Ergebnis zeigt die Reichweite des Werbeblocks. Von der Wahrscheinlichkeit her ist es gleichgültig, wie viele Personen faktisch zugesehen haben. Ausschlaggebend ist die Summe der gesamten Sehdauer in dem Werbeblock, also genau genommen die Addition der personenindividuellen p-Werte, bezogen auf den Zeitraum, in dem der Werbeblock ausgestrahlt wurde.

Bewegtbild-Forschung: Die Erhebung von Streaming

Das große Thema Bewegtbildforschung entwickelte sich vor einigen Jahren auf Basis der Feststellung, dass gerade jüngere ebenso wie formal höher gebildete Personen über das lineare Fernsehen immer schlechter erreicht werden. Diese Personen galten schon immer als schwer erreichbare Zielgruppen im Fernsehen, der Leistungsabfall in diesen Zielgruppen nahm in den letzten Jahren aber nochmals zu. Das führte dann zum Thema inkrementelle Reichweite, also der Generierung zusätzlicher Reichweiten in bestimmten (Teil-) Zielgruppen über den Einsatz weiterer Medien. Was lag näher als Bewegtbild, also audiovisuelle Kommunikation bzw. Werbespots im Internet parallel zu TV zu belegen. Für die Agenturen war dies gleichzeitig eine Herausforderung, galt es doch in dieser Zeit, den Kunden ohne konkrete Überschneidungsdaten (zwischen TV und Online) näher zu bringen, dass der Einsatz von Online-Bewegtbild in den eher jüngeren Zielgruppen zusätzlich zu TV Sinn ergeben würde. Da dieses Thema von den TV-Sendern zunächst eher vernachlässigt wurde, behalf man sich u. a. mit eigenen Berechnungen und Schätzungen auf Basis der Binomial-Verteilung. Erste Ergebnisse aus Einzelstudien wurden zuerst durch YouTube und später dann durch Online-Anbieter wie United Internet Media, Tomorrow Focus und EMS veröffentlicht. Diese anbieterinitiierten Studien verwiesen auf die zusätzlich erzielbare inkrementelle Reichweite (hier vor allem YouTube) und auf die empirisch gewonnene Tatsache, dass Online Video wirkungsspezifisch ebenso gut funktioniere wie TV-Spots und man deshalb die Kontaktrelation 1:1 aufstellen könnte. Das heißt ein TV-Werbespot führt in etwa zu derselben Erinnerungsleistung wie ein Online ausgespielter Spot (vgl. facit digital 2009).

Erst später begannen sich die TV-Sender mit dem Thema zu beschäftigen, obwohl gerade sie (nach YouTube) das größte Inventar für Online-Bewegtbild zur Verfügung stellen konnten. Die Initiative von TV beschränkt sich aber bis heute ausschließlich auf Streaming-Angebote, also audiovisuelle Übertragungen, die in Echtzeit ablaufen (und nicht gespeichert sind). Alle anderen Bewegtbild-Angebote werden von den Forschungsbemühungen der TV-Sendern bisher ignoriert.

Von der Fernseh- zur Videoforschung

Die AGF steht gerade vor einer großen Herausforderung, geht es hier doch darum das gesamte Spektrum der audiovisuellen Nutzung und Werbekommunikation abzubilden (vgl. Horizont 2018f). Hier hat sich im deutschen Sprachgebrauch der Begriff „Bewegtbild“ eingebürgert, der sowohl Fernsehen wie auch Online-Videos meint. Dabei werden entweder alle Möglichkeiten der audiovisuellen Übertragung via Screens integriert (also über das Fernsehgerät, den Computer, Tablets, Smartphones, selbst Spielekonsolen) oder es wird ausschließlich auf gestreamte Inhalte (Streaming) fokussiert, wie es derzeit die AGF macht. Mit Streaming bezeichnet man die audiovisuellen Angebote, die erst parallel beim Anschauen übertragen werden, im Unterschied zu Downloads oder Video auf Speichermedien (wie z. B. DVD). Insgesamt betrachtet wird es immer wichtiger sich mit umfassender Multiscreen-Forschung zu beschäftigen, da die Bewegtbild Online-Nutzung auf allen Geräten kontinuierlich zunimmt.

Aktuell wurde unter dem Dach der AGF ein ziemlich komplexes Konstrukt entwickelt, das letztlich alle Informationen auf allen Screens zu Bewegtbild (Streaming) bereitstellen soll: Neben dem bisher bestehenden AGF TV-Panel wurden zwei Online-Panels damit beauftragt, Daten zur Online Streaming-Nutzung zur Verfügung zu stellen. Dies sind die Panels von Nielsen (Netsight) mit rund 15.000 Teilnehmern und der GfK (GXL-Panel) mit ca. 19.000 Teilnehmern. Wobei im GXL-Panel zum Teil auch herkömmliche TV-Nutzung mitgemessen wird und somit echte Überschneidungen zu Online zur Verfügung stehen. Diese GXL-Panel-Daten werden übrigens von der GfK an Werbevermarkter und Agenturen verkauft – womit das GXL-Panel pikanterweise eine Art „Konkurrenzwährung“ zur AGF darstellt, wie einige kritisieren (vgl. Paperlein 2016a). Aber zurück zur AGF: Die Online-Daten der beiden Panels werden dann über eine sogenannte Zensus-Messung, die originale Abrufdaten aus Media Playern misst und speichert, kalibriert (also angepasst) und in das TV-Panel fusioniert. Bei der Fusion helfen dann wiederrum die Überschneidungsinformationen aus dem GXL-Panel zur personenidentischen TV- und Online-Bewegtbild-Nutzung.

Damit stehen seit Anfang 2017 erste Bewegtbilddaten zur Verfügung, die auf der TV-Nutzung und der Streaming-Nutzung auf Desktops stammen. Informationen zur mobilen Nutzung werden über das Nielsen Mobile Panel erhoben, welches sich noch im Aufbau befindet. Angestrebt sind kurzfristig insgesamt 5000 Panelteilnehmer. Die Smart TV-Nutzung, also die von Addressable TV, soll in das AGF TV-Panel ebenfalls integriert werden und damit würden demnächst Daten zu allen Bewegtbild-Screens zur Verfügung stehen (vgl. Horizont 2018f).

2.2 Markt-Media-Studien

Im Unterschied zu Media-Analysen bieten Markt-Media-Analysen inhaltlich den Vorteil, dass sie neben der Mediennutzung auch umfassende Konsum- und Verbraucherinformationen enthalten. Genau genommen vereinen Markt-Media-Studien zwei Informationskomplexe, die früher in separaten Studien erhoben wurden: Informationen zu den einzelnen Produktbereichen oder Märkten (früher nur in produktspezifischen Marktforschungsstudien erhältlich) mit Informationen zum individuellen Mediennutzungsverhalten. Da beide Informationskomplexe bei denselben Befragungspersonen erhoben werden, spricht man bei dieser Art von Untersuchungen von Single Source-Studien, im Unterschied zu fusionierten Studien, bei denen zwei Datenquellen über personenidentische Merkmale zusammengeführt werden. Allerdings sind heute die wenigsten Markt-Media-Studien noch reine Single-Source-Untersuchungen – bestimmte Informationen (z. B. die Nutzung von mobilen Online-Angeboten in der Studie „Best for Planning“) werden in einen umfangreichen Befragungsdatensatz fusioniert.

Angeregt wurden Markt-Media-Studien durch zwei Wünsche: Zum einen wollten Werbungtreibende mehr Zielgruppeninformationen zählbar haben, um komplexere Zielgruppendefinitionen zu ermöglichen – z. B. die Verwender einer bestimmten Marke oder die Heavy-User einer Produktkategorie. Gleichzeitig suchten die Werbevermarkter (in erster Linie Zeitschriftenverlage) Argumente für ihre Werbeträger – und da war es hilfreich zu zeigen, welche Produkte und Marken ihre Leser verwenden. Die erste Markt-Media-Studie in Deutschland war die Allensbacher Werbeträger-Analyse (AWA), die bis heute existiert und von einem Marktforschungsinstitut herausgegeben wird (vgl. Schulz und Schneller 2009). Es folgten Studien der großen Zeitschriftenverlage. In den 80er-und 90er-Jahren wurden so eine ganze Reihe solcher Studien angeboten. Da diese Studien meist den Werbungtreibenden und Agenturen mehr oder minder kostenfrei zur Verfügung gestellt wurden, konnte man noch Anfang des Jahrtausends von einem „Paradies der Marktforscher“ sprechen (vgl. Engel 2008). Das änderte sich in den Jahren ab 2010 – sinkende Anzeigenerlöse und höherer Kostendruck führte dazu, dass viele Unternehmen ihre Markt-Media-Studien einstellten oder mit anderen Verlagen kooperierten. Als Ergebnis dieser Konsolidierung entstand die Studie „Best 4 Planning“, die von fünf großen Medienhäusern gemeinschaftlich herausgegeben wird und verschiedene ältere Studien ablöste. Sie ist heute sicherlich die dominante Markt-Media-Studie im deutschen Markt, wenn auch nicht die einzige.

Die verschiedenen Markt-Media-Studien können inhaltlich differenziert werden. So fokussiert „Best for Planning“ konsumspezifisch auf eine Vielzahl (werberelevanter) Produktbereiche, bei Beschränkung auf eher wenige wichtige Informationen pro Segment. Andere bieten dagegen eine größere Informationstiefe bei gleichzeitiger Beschränkung auf einige wenige Produktbereiche oder Zielgruppen. Dies betrifft zum Beispiel die Leseranalyse Entscheidungsträger (LAE), Outfit, Soll & Haben, die ACTA oder die Leseranalyse Computerpresse (LAC).

Interessant und relevant sind diese Daten im Mediabereich primär zur Situationsanalyse und für die Zielgruppendefinition, der ein umfassender Analyseprozess vorausgehen kann. Verwender oder Käufer des gesamten Produktbereichs oder einzelner Marken können nach soziodemografischen, psychografischen und einer Vielzahl weiterer Merkmale untersucht werden.

Weitere situationsspezifisch relevante Aspekte sind in der Analyse und Darstellung werberelevanter Marktverhältnisse zu sehen und in der Feststellung konsumentenspezifischer Vorlieben und Abneigungen. Im Kontext Marketing und Kommunikation bieten Markt-Media-Studien insofern interessante Anhaltspunkte zum Markt und den Verbrauchern.

Anforderungen an Markt-Media-Studien

Voraussetzung für die Planungsrelevanz einer Markt-Media-Studie ist die methodische Durchführung nach generell anerkannten methodischen Standards, ein ausreichendes Spektrum an enthaltenen Media-Informationen, intra- und intermediale Mediengerechtigkeit und die Verfügbarkeit wesentlicher Zielgruppenmerkmale. Je nach Produktbereich ist auf die Aktualität der Studie zu achten, da gerade Studien mit Informationstiefe, wie z. B. Outfit, inzwischen eher sporadisch erscheinen.

Veröffentlichung

Ergebnisse von Markt-Media-Studien werden in gedruckten Berichtsbänden veröffentlicht, die den Werbekunden und Agenturen von den Herausgebern (in der Regel Verlage) kostenfrei zur Verfügung gestellt werden. In den meisten Agenturen liegen die Daten für die Untersuchungen elektronisch vor, d. h. mit eigenen Zählprogrammen (z. B. mds oder MediMach) können Mediaplaner selbst Auswertungen am PC durchführen. Die eher kleineren Agenturen, die damit nicht arbeiten, können zum Teil Zählungen online vornehmen. Das ist auch eine Möglichkeit für Studierende und Wissenschaftler, da die Nutzung dieser Daten weitgehend kostenfrei ist.

Spezielle Erhebungsmerkmale

Spezielle Erhebungsmerkmale gehen über die normalerweise erhobenen Fragestellungen hinaus und bieten die Möglichkeit Märkte und/oder Zielgruppen detaillierter oder umfassender beschreiben zu können. Fragebatterien zu verschiedenen Konsumbereichen dienen oftmals der Verdichtung der Daten zu sogenannten Typologien. So werden in verschiedenen Studien zum Beispiel Modetypen angeboten, aber es gibt auch die Möglichkeit, eigene Typologien mit dem Datensatz zu berechnen. Eine der gebräuchlichsten Typologien stellen immer die Modelle zu sozialen Milieus dar, wie sie von den Marktforschungsinstituten Sinus-Sociovison und Sigma angeboten werden (vgl. Barth et al. 2017; SIGMA 2018). Diese sind in den gängigen Markt-Media-Studien zählbar.

Im Folgenden sollen die wichtigsten derzeitigen Markt-Media-Studien kurz vorgestellt werden.

Best for Planning (b4p)

Best for Planning (b4p) kann aufgrund ihres breiten Produktspektrums als die wichtigste Markt-Media-Studie im deutschen Markt angesehen werden. Herausgegeben wird sie von der Gesellschaft für integrierte Kommunikationsforschung (GIK) als Gemeinschaftsuntersuchung der Gesellschafter Axel Springer SE, Bauer Advertising KG, Burda GmbH, Funke Mediengruppe und Gruner & Jahr AG & Co. KG. Einige andere Medienvermarkter – nicht nur Printverlage – sind ebenfalls Lizenzpartner der Studie. Sie erschien erstmals 2012 und erscheint seitdem jedes Jahr im Herbst. Historisch gesehen gingen in die Studie die bis dato einzeln veröffentlichten und sehr verbreiteten Markt-Media-Studien Typologie der Wünsche (TdW), Verbraucher Analyse (VA) und Communication Networks (CN) auf. Vorteil dieser Konsolidierung für die Verlage ist eine Kostenreduzierung, für die Anwender ist es die Standardisierung und eine klare Struktur, außerdem wird so verhindert, dass konkurrierende Studien auf Grund verschiedener Methoden unterschiedliche Werte produzieren.

Die Erscheinungsweise ist jährlich basierend auf einem rollierenden Feldmodell. Das bedeutet: pro Jahr werden rund 15.000 Personen befragt. Für einen Datensatz werden jeweils zwei Jahre zusammengefasst, so dass immer rund 30.000 Fälle für die Grundgesamtheit der deutschsprechenden Personen ab 14 Jahre zur Verfügung stehen. Damit können für sehr spezielle Zielgruppen (z. B. die Verwender einer bestimmten Marke) noch verlässliche Aussagen (d. h. basierend auf einer ausreichenden Anzahl von Interviews) getroffen werden (vgl. www.b4p.media).

Die Liste der abgefragten Produktbereiche und Marken ist lang. Hinzu kommen noch Informationen zu Freizeitverhalten und psychografische Merkmale (Einstellungen gegenüber Marken, Preis und Werbung). Neben den Publikumszeitschriften werden Nutzungsinformationen zu den anderen Mediengattungen erhoben und ausgewiesen. B4p enthält neben den Publikumszeitschriften und Zeitungen Nutzerschaftsdaten zu Plakat, TV, Radio, Kino und Websites bzw. Apps. Die erhobenen Reichweiten werden an die Daten der agma und seit kurzem auch an die der AGOF angepasst. Dadurch können die Studien nicht nur für allgemeine strategische Entscheidungen (z. B. Mediamix) herangezogen werden, sondern ermöglichen eine Detailplanung für Zeitschriften und andere Medien.

Die Kinder-Medien-Studie

Abweichend von allen anderen Studien untersucht die Kinder-Medien-Studien die Konsumgewohnheiten und Verhaltensweisen der Kids- und Teens-Zielgruppen im Alter von 4 bis13 Jahren (vgl. http://www.kinder-medien-studie.de/). Damit steht die einzige Untersuchung zur Verfügung, die Informationen zu diesen jungen Zielpersonen und deren Printnutzung enthält. Die Kinder-Medien-Studie entstand aus der KidsVA und wird von dem auf Jugendmedien spezialisierten Verlag Egmont Ehapa herausgegeben. Bei der Studie in 2015 wurden rund 2500 Kinder befragt.

Eine Besonderheit der Kinder-Medien-Studie stellt die medienspezifische Abfrage des Leseverhaltens nach dem Titelseiten-Identifikationsmodell (TIM) dar. Über das TIM wird die Befragung so gestützt, dass die Befragungspersonen die verkleinerten Titelseiten aller 12 Ausgaben der enthaltenen Zeitschriften vorgelegt bekommen und die jeweils genutzten Ausgaben dann angeben müssen. Damit wird die Identifikation für die befragten Kinder (die zum Teil ja noch gar nicht lesen können) erleichtert. Das TIM-System ist ein durchaus interessanter Ansatz, der die Nutzungsfrequenz und das Lesen im letzten Erscheinungsintervall (LpN) gestützt über einer Frage erhebt und auch schon für andere Print-Studien diskutiert wurde (vgl. Focus Verlag 2009).

Leseranalyse Entscheidungsträger (LAE)

Mit der LAE werden auf Basis eines rollierenden Modells jährlich Daten zu einer speziellen Grundgesamtheit veröffentlicht – den Entscheidungsträgern in Wirtschaft und Verwaltung. Aktuell sind das insgesamt 2,936 Mio. Personen in Deutschland, die nach Branchen, Tätigkeitsbereichen und Kompetenzen analysiert werden können. Auftraggeber der Studie sind die beteiligten Verlage, die primär Wirtschaftstitel, Magazine zum Zeitgeschehen, überregionale Abo-Zeitungen und entsprechende Wochenzeitungen herausgeben. Diese, insgesamt 22 Titel sind es auch, die in der LAE abgefragt werden. Hinzu kommen Online-Daten inkl. der Nutzung von Smartphone- und Tablet-Apps, aus entsprechenden Angeboten der beteiligten Verlage (vgl www.lae.de/).

Die LAE kann in ihrer Bedeutung für die Mediaplanung kaum unterschätzt werden, da besonders im Business-to-Business-Bereich ohne die LAE-Daten keine Planung gemacht werden kann. Im Gegensatz zu den meisten anderen Markt-Media-Studien basiert die LAE nicht auf einer Zufallsstichprobe, sondern verwendet ein Quotenauswahlverfahren. Das ist notwendig, um eine repräsentative Stichprobe über alle Branchen und berufliche Positionen hinweg zu bekommen.

AWA – Allensbacher Werbeträger Analyse

Eine Besonderheit im deutschen Markt stellt die AWA dar und das gleich in mehrfacher Hinsicht. Zum einen war die Allensbacher Werbeträger Analyse die erste Markt-Media-Studie in Deutschland. Sie ist auch die einzige Studie, die nicht von einem Verlag herausgegeben wird, sondern von einem Marktforschungsinstitut. Das Institut für Demoskopie in Allensbach, das eng mit den Namen von Elisabeth Noelle-Neumann verbunden ist und einen Schwerpunkt in Meinungs- und Wahlforschung hat, veröffentlicht die AWA jährlich. Die AWA kann analog der b4p als breite Markt-Media-Studie bezeichnet werden. Sie umfasst nicht nur Informationen über Produkte (allerdings ohne auf spezielle Marken einzugehen) und Medien, sondern enthält viele psychografische Informationen (z. B. Meinungsführerschaft und Persönlichkeitsstärke), die in anderen Studien nicht vorliegen (vgl. Wendelin 2013; www.ifd-allensbach.de).

Auch methodisch hat die AWA eine besondere Stellung. Bei der AWA-Stichprobe wird als einziger großer Werbeträgerstudie in Deutschland nach dem Quotenverfahren vorgegangen. Sie verwendet eine deutlich abweichende Filterführung bei der Ermittlung der Printreichweiten, wodurch die erhobenen Reichweiten von denen in der ma zum Teil deutlich abweichen (vgl. Schulz und Schneller 2009). Eine Gewichtung anhand der ma-Daten wie bei den meisten anderen Studien findet nicht statt. Im Unterschied zu den anderen Markt-Media-Studien enthält die AWA einige kleineren Titel und Titel-Kombinationen, die in den anderen Studien, aufgrund der geringen Fallzahlen nicht ausgewiesen werden würden.

VuMA Touchpoints

Auch wenn in den früheren großen Markt-Media-Studien die Radionutzung grob mit erhoben wird, hatten sie nicht die gleiche Qualität wie die Daten zur Printnutzung. Deshalb wurde von den Radiovermarktern eine eigene Markt-Media-Studie ins Leben gerufen, die mehr den Bedürfnissen der Radio- und TV-Sender entsprach. Die Verbraucher und Medienanalyse existiert bis heute unter dem Namen VuMA Touchpoints und wird von verschiedenen öffentlich-rechtlichen und privaten TV- und Radiovermarktern herausgegeben (vgl. www.vuma.de). Die VuMA soll die ma-Daten zum Hörfunk um Konsumdaten ergänzen und gleichzeitig Informationen für die Fernsehforschung liefern, die in das AGF/GfK-Panel hineinfusioniert werden. Im Unterschied zur Radio-MA werden die VuMA-Daten weiterhin Face-to-Face (CAPI-Interviews) erhoben, da neben der Befragung zusätzlich ein vom Befragten selbst auszufüllender Fragebogen (Haushaltsbuch) hinterlassen werden muss. Die VuMA Touchpoint basiert, analog vieler anderer Markt-Media-Studien, auf einem rollierenden Modell und insgesamt rund 23.000 Befragungspersonen. Die von der VuMA Touchpoint erhobenen Hörfunkdaten werden (analog wie bei Markt-Media-Studien die Printreichweiten) an die Reichweiten der ma angepasst. Ähnlich wie die anderen großen Markt-Media-Analysen ist das abgefragte Produktspektrum breit, geht jedoch inhaltlich weniger in die Tiefe. Seit einigen Jahren gibt es ein freiverfügbares Online-Tool, mit dem allgemeine Informationen aus der Studie frei zählbar sind (vgl. https://touchpoints.vuma.de/).

TGI Europa

Die TGI Europa ist eine internationale Markt-Media-Studie, die Daten für Deutschland, Großbritannien, Frankreich und Spanien mit einem weitgehend identischen Fragebogen abfragt (vgl. Bauer 2018). TGI steht für „Target Group Index“ und erhebt eine umfangreiche Anzahl von Informationen zu Mediennutzung, Konsum und Zielgruppenmerkmalen. Basis ist eine repräsentative Quotenstichprobe, repräsentativ für die Bevölkerung ab 15 Jahren der jeweiligen Länder. 60.000 Interviews werden jedes Jahr für die TGI Europa durchgeführt, wobei die Befragten ein umfassendes „Haushaltsbuch“ (gedruckt oder online) bekommen und dieses selbstständig ausfüllen. In Deutschland steht sie im Schatten der Best for Planning, ist aber die einzige Quelle, wenn es um ländervergleichende Forschung geht, die für international agierende Unternehmen wichtig ist.

Weitere Markt-Media-Studien

Der Spiegel-Verlag in Hamburg hat in der Vergangenheit immer wieder Studien veröffentlicht, die sich nur mit einem (sehr) speziellen Marktsegment beschäftigen (vgl. http://spiegel.media/). Dies waren u. a.:
  • Outfit: Thema Mode, Uhren, Schmuck

  • Soll & Haben: Thema Finanzdienstleistungen, Geldanlagen

  • Prozente: Thema alkoholische Getränke, aber auch nichtalkoholische Getränke

  • Auto, Verkehr und Umwelt: Thema Mobilität, Autos, Verkehrsmittel

Ob es diese Studien in Zukunft noch geben wird, ist ungewiss. So erschien Outfit zuletzt 2015 und Soll & Haben in 2013. Wobei beide Studien über Online Access Panels durchgeführt wurden.

Darüber hinaus gibt es noch Spezialstudien, die sich ausschließlich mit dem Thema Computer (Hard- und Software) beschäftigen und besonders die Special Interest-Zeitschriften aus der Gattung der Computerpresse erheben. Hier gibt es zwei wichtige Studien: Die Leser-Analyse Computerpresse (LAC), allerdings zuletzt im Jahr 2011 erschienen, und die Allensbacher Computer- und Telekommunikations-Analyse (ACTA), die noch regelmäßig vom Institut für Demoskopie herausgegeben wird (vgl. https://www.ifd-allensbach.de/acta/).

Erwähnenswert ist noch die „Reichweitenstudie Entscheider im Mittelstand“, die sich ähnlich wie die LAE mit beruflichen Entscheidern beschäftigt, sich aber mehr auf den deutschen Mittelstand konzentriert. Die Studie wird von den Vermarktern der IHK-Zeitschriften herausgeben, erschien zuletzt 2018 (vgl. https://www.entscheider-mittelstand.de/).

2.3 Werbestatistik

Ein besonderer Teil der Werbeträgerforschung soll hier mit dem Begriff Werbestatistik bezeichnet werden. Hier geht es nicht – wie bei Media- oder Markt-Media-Studien – darum, etwas über die Nutzer von Werbeträgern oder Werbung auszusagen. Vielmehr ist die Aufgabe der Werbestatistik zählbare Informationen über Werbeträger selbst und die dort geschaltete Werbung zu liefern. Dabei lassen sich in erster Linie zwei stark unterschiedliche Bereiche subsumieren, nämlich die Werbeträgerstatistik und die Erhebung der Werbeaufwendungen. Beide Bereiche erfassen detaillierte und individuelle Informationen, die sich aggregiert auswerten lassen. Sowohl die individuellen Detaildaten wie auch die aggregierte Statistik liefern wichtige Informationen für die Mediaplanung und Werbevermarktung.

Werbeträgerstatistik der IVW

Die Werbeträgerstatistik dient primär der Feststellung von Werbeträgerangeboten im Werbemarkt und beschäftigt sich mit der Erfassung numerischer Quantitäten. Eine Vielzahl dieser quantitativen Informationen wird von der IVW, der Informationsgemeinschaft zur Feststellung der Verbreitung von Werbeträgern, bereitgestellt (vgl. Frey-Vor et al. 2008; Gerke 2005). Wie viele Exemplare von einer Zeitschrift oder Zeitung verkauft oder verbreitet werden, ist ein wichtiger Wert für die Mediaplanung. Damit kein Verlag höhere Auflagen veröffentlicht, als er tatsächlich unters Volk gebracht hat, gibt es seit 1949 die IVW. Sie kontrolliert stichprobenartig die Verlagsangaben und die Zahlen. Ähnlich wie die agma ist auch die IVW eine Einrichtung, die gemeinsam von allen Marktpartnern der Werbebranche getragen wird. Sie hat Organe und Gremien, in denen sowohl die Medienanbieter bzw. Verlage wie Vertreter von Agenturen und Werbungtreibenden vertreten sind. Aufgabe der IVW ist es in erster Linie, verlässliche Daten über die Auflage und Verbreitung von Zeitungs- und Zeitschriftenexemplaren für den Werbemarkt bereit zu stellen. Weitere Aufgaben (etwa die stichprobenartige Kontrolle, ob Radiospots korrekt ausgestrahlt wurden oder die Bereitstellung von verlässlichen Zahlen über die Nutzung von Websites) haben eine geringere Bedeutung für die Mediaplanung, weshalb wir hier nur auf die Ermittlung von Printauflagen eingehen werden (nähere Informationen über die IVW kann man im ZAW-Jahrbuch oder auf der IVW-Website nachlesen, vgl. ZAW 2018a, www.ivw.de).

Zweiter wichtiger Bereich der IVW ist die Ausweisung von Leistungswerten für Online-Werbeangebote und Belegungseinheiten. Hier werden Page Impressions und Visits ausgewiesen, die über eine aufwendige technische Messung durch den Dienstleister INFOnline erhoben und von der IVW veröffentlicht werden (vgl. www.infonline.de/unternehmen/geschichte/). Da diese technische Messung ein Teil der von der AGOF erhobenen Reichweiten ist und in dem Abschnitt zu Media-Studien (siehe oben) bereits erörtert wurde, konzentriert sich die folgende Darstellung auf Printmedien.

Die IVW liefert Daten zur Anzahl von Zeitungen, Publikumszeitschriften, Fachzeitschriften und Kundenzeitschriften, die es im deutschen Markt gibt. Allerdings werden nur Daten unter der Voraussetzung ermittelt und veröffentlicht, dass die Titel IVW-Mitglied sind und ihre Auflagen an die IVW melden. Diese Mitgliedschaft ist freiwillig und verlangt von den entsprechenden Verlagen eine große Transparenz und die Offenlegung aller relevanten innerbetrieblichen Zahlen. Deshalb ist die IVW-Mitgliedschaft auch eine Art Gütekriterium. Es besteht z. B. die Notwendigkeit, dass Publikumszeitschriften IVW-Mitglied sind, um bei der Media-Analyse erhoben zu werden. Fachzeitschriften, die nicht IVW-Mitglied sind, werden oft bei der Mediaplanung nicht berücksichtigt, da man dann den vom Verlag angegebenen Auflagen bzw. der Verbreitung nicht richtig traut. Dass die Kontrollmechanismen der IVW funktionieren, hat sich in der Vergangenheit u. a. dadurch gezeigt, dass Unregelmäßigkeiten und Manipulationen bei der Auflagenmeldung aufgedeckt werden konnten (vgl. Horizont 2001).

Die Auflagen von Zeitungen, Publikumszeitschriften, Fachzeitschriften und Kundenzeitschriften werden quartalsweise veröffentlicht. Über alle Ausgaben eines Titels, die in dem untersuchten Quartal erschienen sind, wird ein Durchschnittswert gebildet. Für die wichtigsten Publikumszeitschriften gibt es seit einigen Jahren neben den Quartalszahlen sogenannte Heftauflagen, also Auflagen für jede einzelne erschienene Ausgabe.

Die Auflagen werden differenziert nach Druckauflage, verbreiteter Auflage und verkaufter Auflage. Die Druckauflage umfasst alle Exemplare, die von einer Nummer gedruckt wurden. Zur verkauften Auflage werden alle Exemplare gezählt, die zum Leser gelangt sind, entweder qua Abonnement oder über den Einzelverkauf (am Kiosk). Zur verbreiteten Auflage zählt man dann noch Freistücke dazu, also Exemplare die kostenfrei versandt werden.

Es sei noch einmal betont: Auflagenzahlen sagen nichts über die Leserschaft eines Titels aus, da jedes Exemplar sowohl ungelesen in den Papierkorb wandern, wie auch von mehr als einem Leser gelesen werden kann. Für die wichtigsten Publikumszeitschriften stehen mit der ma verlässliche Daten über die Reichweite eines Titels zur Verfügung. Da stellt sich die Frage, inwiefern dann die Auflagenzahlen überhaupt für die Mediaplanung noch von Interesse sind?

Bei neuen Titeln, für die noch keine Zahlen aus Media- oder Markt-Media-Analysen vorliegen, sind Auflagen fast die einzigen verfügbaren Informationen, die etwas über den Erfolg – und damit über die Nutzung – aussagen.

Für Titel, die nicht in der ma erhoben werden, sind die IVW-Auflagen aber oft die einzigen verlässlichen Zahlen, die vorliegen. Deshalb sind IVW-Zahlen nach wie vor wichtig und dienen als ein wichtiges, vergleichbares Selektionskriterium. Das gilt insbesondere für beruflich genutzte Fachzeitschriften, Anzeigenblätter, Stadtillustrierte, amtliche Mitteilungsblätter oder andere Gratiszeitschriften (z. B. Kunden- oder Mitgliederzeitschriften, aber auch kostenlose, werbefinanzierte Magazine, die sich z. B. an Studierende oder Apothekenkunden richten).

Verbreitungsanalyse Tageszeitungen

Für Tageszeitungen gibt die IVW außerdem alle zwei Jahre die umfangreiche „Verbreitungsanalyse Tageszeitungen“ heraus. Sie liefert zusätzliche Kennwerte wie z. B. den L-Wert in einem definierten Gebiet, der inzwischen die Haushaltsabdeckung abgelöst hat. Die Haushaltsabdeckung stellt das Verhältnis zwischen den verbreiteten Zeitungsexemplaren und der Anzahl der Haushalte in dem definierten Verbreitungsgebiet einer regionalen Abonnementzeitung dar. Im Unterschied zur Haushaltsabdeckung bietet der L-Wert personenspezifische Daten. Der Vorteil des L-Werts gegenüber der bisherigen Planungspraxis über die Haushaltsabdeckung liegt vor allem darin, dass mit dem L-Wert endlich personenbezogene Leistungswerte in Form von Reichweiten für die lokale/regionale Mediaplanung von Tageszeitungen zur Verfügung stehen (vgl. Bundesverband Deutscher Zeitungsverleger e.V. 2018). Zusätzlich wird von der Zeitungs Marktforschungs Gesellschaft (ZMG) der „Verbreitungsatlas Tageszeitungen“ herausgegeben, der diese Informationen ebenfalls enthält (Informationen dazu findet man auf der ZMG-Website – vgl. www.zmg.de).

Weitere Zahlen der Werbeträgerstatistik

Darüber hinaus gibt es eine Vielzahl an Informationen, die unabhängig von der IVW sind, aber dem Werbemarkt zur Verfügung stehen und sich zur Charakterisierung der Medienlandschaft eignen. Dies sind z. B.
  • Informationen über das Außenwerbungsangebot (z. B. wie viele Großflächen es gibt)

  • die Besucherzahlen von Filmtheatern (interessant vor allem im Jahresverlauf)

  • Die Anzahl nationaler und pan-europäischer TV-Sender, die in Deutschland zu empfangen sind.

Werbeaufwendungen

Eine der wichtigen Aufgaben der Mediaplanung ist es das Mediabudget zu überprüfen und eine Empfehlung abzugeben. Mit Mediabudget ist folgendes gemeint: Das Geld, das innerhalb eines Planungszeitraumes für die Einschaltung von Werbung in Werbeträgern investiert werden soll. In der Regel ist der Planungszeitraum ein Kalenderjahr, es kann sich aber auch um kürzere Zeiträume handeln, wenn sich die Planung nur auf zeitlich begrenzte (Einzel-) Kampagnen bezieht. Produktionskosten für die Werbemittel sind ebenso wenig Teil des Mediabudgets wie Aufwendungen für andere Kommunikationsinstrumente (z. B. Verkaufsförderung).

Die Mediaplaner wollen deshalb wissen, wie ihre kundenspezifischen Kampagnen funktionierten. Dafür gibt es Werbewirkungsforschung in Form von Tracking-Studien und Modelling, auf die wir später noch eingehen werden sind. Sie benötigen ebenfalls Informationen über die Werbeaktivitäten der Konkurrenz. Schließlich lässt sich die erzielte Medialeistung nur im Kontext des gesamten Marktumfelds beurteilen. Die Mitbewerber liefern die Vergleichswerte: Welches Mediabudget haben sie eingesetzt, welche Medien wurden belegt, wie wurde taktisch vorgegangen? Um dies festzustellen gibt es eine externe Quelle, die sehr genau ermittelt, wer in welchen Werbeträgern wie geworben hat. Diese Werbestatistik liefert in Deutschland in erster Linie ein Marktforschungsinstitut, Nielsen Media Research. Wettbewerber wie Advision liefern zwar ebenfalls Werbeaufwendungen (vgl. www.advision-digital.de/), aber eher für bestimmte Segmente und nicht in der allumfassenden Gesamtheit wie Nielsen. Die Werbestatistik existiert in Deutschland seit den 1950er-Jahren und wurde lange Zeit (nach ihren Erfindern) „Schmidt & Pohlmann“ genannt. 1979 übernahm das internationale Marktforschungsunternehmen Nielsen die Statistik, bis in die 2000er-Jahre hielt sich der Name „Nielsen S+P“ (vgl. Koschnick 2003).

Die Aufgabe der Werbebeobachtung ist eine möglichst lückenlose Erfassung aller marken- bzw. unternehmensspezifischen Werbemaßnahmen. Da dies kaum möglich ist, muss sichergestellt werden, dass zumindest die werberelevanten Märkte und alle wichtigen Werbeträger innerhalb der klassischen Mediengattungen in die Werbebeobachtung mit einbezogen werden. Nielsen Media Research beobachtet folgende Werbeträger: Zeitungen, Publikumszeitschriften, Fachzeitschriften, TV, Hörfunk, Außenwerbung und Online-Angebote. Die Erfassung der Daten geschieht überwiegend durch Mitarbeiter von Nielsen Media Research oder durch eine technische Messung (TV), d. h. sie basiert überwiegend nicht auf Meldungen der Medienanbieter, sondern wird selbst erhoben. Ausnahme ist der Außenwerbungsbereich und das Internet, da es dort so gut wie unmöglich ist, jede einzelne Stelle bzw. Website mit Werbung zu erfassen. Deshalb werden diese Daten von den Anbietern bzw. dem FAW gemeldet. So kommt es immer wieder zu Kritik an den von Nielsen Media Research ausgewiesenen Online-Werbeaufwendungen, da sie programmatisch eingekaufte Kampagnen nicht richtig abbilde und nur ein eingeschränktes Bild des Marktes liefere (vgl. Horizont 2014).

Die Werbebeobachtung umfasst alle Konsum- und Dienstleitungsbereiche der Volkswirtschaft. Ausgewertet und dargestellt werden die Brutto-Werbeaufwendungen und die Seiten- bzw. Sekunden-Volumina. Nur die beteiligten Unternehmen verfügen über Informationen über tatsächlich gewährte Rabatte, Sonderkonditionen oder Naturalrabatte (z. B. Freispots), die natürlich der Vertraulichkeit unterliegen. Nielsen Media Research kann als externer Beobachter nur auf die veröffentlichten Tarif-Informationen der Werbevermarkter zurückgreifen. Nielsen kann selbstverständlich die noch im Laufe des Jahres erfolgenden Werbeeinschaltungen nicht kennen und damit keine im Tarif vorgesehenen Rabatte berechnen. Für die Mediaplanung sind aber Nettozahlen nicht notwendig. Ihre Aufgabe ist es nicht, exakt Auskunft über die tatsächlichen Einnahmen eines Werbeträgers zu geben, sondern den von werbungtreibenden Unternehmen eingesetzten Werbedruck zu geben. Die Nielsen-Spendings sind so als marktspezifischer Vergleichsmaßstab geeignet. So führen z. B. 4 Mio. € Brutto in bestimmten Medien zu einem doppelt so hohen Werbedruck 2 Mio. €, vorausgesetzt die Formate stimmen überein. Bei Netto-Werbeaufwendungen, also unter Berücksichtigung von Rabatten und möglichen Skonti und der Mittlervergütung, würde sich hier ein ganz anderes Verhältnis ergeben. Seit 2001 ist übrigens die Kluft zwischen Brutto- und Netto-Einnahmen der Werbeträger gestiegen, da durch den härteren intra- und intermedialen Wettbewerb den Werbungtreibenden und Agenturen immer mehr Sonderrabatte gewährt werden.

Aufgabe der Mediaplaner ist primär die Analyse und Darstellung von Entwicklungstendenzen bei den Werbeaufwendungen im jeweils markenspezifisch relevanten Produktbereich. So können Tendenzen, nur mit einem geringen Time Lag (also zeitlich verzögert), kontinuierlich verfolgt werden. Somit ist prinzipiell die Rekonstruktion aller markenspezifischen Mediapläne möglich.

Mediaplaner vergleichen die Daten meist mit dem entsprechenden Vorjahreszeitraum, um festzustellen ob und wie sich die Werbeaufwendungen und die Medienpräferenzen im Produktbereich und unter den Marken verändert haben. Wenn etwa die meisten Marken im Produktbereich inzwischen deutlich mehr aufwenden als im Vorjahr, dann herrscht im Markt inzwischen ein härterer werblicher Wettbewerb, was zu der Empfehlung führt, dass die zu betreuende Marke sich dem höheren Werbedruck anschließen sollte. Als Hilfsgröße arbeitet man hier, analog dem Marktanteil bei Absatz- oder Umsatzzahlen, mit dem Share of Advertising (SoA), also dem relativen Werbeaufwendungsanteil im Produktbereich. Ein Beispiel: Eine Marke mit 5 Mio. € Brutto-Werbeaufwendungen innerhalb eines Produktbereichs in dem 50 Mio. € aufgewendet werden, hat entsprechend einen SoA von 10 %. Werden nun im Folgejahr insgesamt 70 Mio. € von allen Wettbewerbern aufgewendet, reduziert sich der SoA der Marke mit 5 Mio. € auf rund 7 %. Die entsprechende Marke setzt sich damit der Gefahr aus, dass sie innerhalb des Wettbewerbs von weniger Personen wahrgenommen wird als im Vorjahr bzw. von den anderen Marken übertönt wird. Als Faustregel gilt für viele Bereiche die Feststellung, dass sich Share of Market und Share of Advertising in etwa die Waage halten sollten. Deutlich höhere Werbeaufwendungen einer bestimmten Marke weisen darauf hin, dass die Marke über forcierte Werbeauftritte versucht ihren Marktanteil auszubauen (vgl. Hofsäss und Engel 2003).

Neben der aggregierten Auswertung, die als Indikator des Werbedrucks und des Share of Advertising fungieren, sind auch die Detailinformationen für die Mediaplanung wichtig. Folgende medienspezifischen Informationen stehen über Nielsen Media Research zur Verfügung, so dass man jeden einzelnen Mediaplan nachvollziehen kann: Titel/Sender/Anschlagsart, Brutto-Einschaltkosten, Format und Farbe bzw. Spotlänge, Ausgabe bzw. Erscheinungsdatum und Uhrzeit, Platzierung und Heftumfang in Print, Platzierung und Werbeblocklänge in TV. Damit ermöglichen sie Rückschlüsse auf mediastrategische Aspekte, wie z. B. Zielsetzung der Marke, Saisonalität, Werbedruck, taktisches Werbedruckmuster (wie Pulsing/Flighting oder Kontinuität) und über die voraussichtlich anvisierte Zielgruppe. Sie erlauben im Zusammenspiel mit anderen Daten, wie etwa Marktanteile oder Werbewirkungsindikatoren, Analysen zum Thema Werbedruck und Werbewirkung (die in dem Abschnitt über Werbewirkung noch genauer behandelt werden).

Spezielle Analysen mit Werbeaufwendungen

Da die Werbestatistik sehr genau erhebt, wann welche Anzeige wo erschienen ist, können zusätzlich spezielle Analysen mit den Nielsen-Daten erfolgen. Der elektronische Bezug der Daten ermöglicht Platzierungskontrollen bzw. Platzierungsauswertungen für die Medien TV und Publikumszeitschriften/Zeitungen und sogenannte Rating-Kontrollen für das Medium TV. Platzierungskontrollen erlauben z. B. die Feststellung, wie oft eine über TV beworbene Marke an erster oder letzter Stelle im Werbeblock war. Bei einer Printkampagne kann überprüft werden, wie viele Umschlagseiten realisiert wurden oder wie oft man z. B. im ersten Heftdrittel gestanden hat. TV-Rating-Kontrollen werden primär unter dem Aspekt Leistungskontrolle im Vergleich zur Konkurrenz durchgeführt. Diese Kontrollen können zwar für die betreuten Marken mittels einer speziellen Auswertungssoftware (TV Control) von der Agentur selbst durchgeführt werden, da man die Einschalttermine der eigenen Kampagnen selbstverständlich umfassend kennt, jedoch nicht die entsprechenden Daten zur Konkurrenz. Erst über Nielsen ist es möglich, die konkreten Termine der Mitbewerber kennen zu lernen, die dann ebenfalls über TV Control bewertet werden können. TV Control rechnet mit den Ratings aller TV-Werbeblöcke der Vergangenheit inklusive der zielgruppenspezifischen Einschaltquoten, und kann als Planungssoftware eingesetzt werden (vgl. https://www.agf.de/leistungen/agfsoftware/).

Bedeutung der Werbestatistik für Medienanbieter

Die bisherige Darstellung konzentrierte sich auf die Funktion der Werbestatistik für die Mediaplanung. Natürlich werden diese Daten in ähnlicher Weise von Werbevermarktern verwendet, wobei diese oft noch weitergehende Fragestellungen haben. Zum Beispiel ist es für einen Werbevermarkter wichtig zu sehen, welche Unternehmen bei den Medien der Wettbewerber geworben haben. Dadurch können sie ihre Vermarktungsaktivitäten bei bestehenden oder potenziellen Werbekunden besser aussteuern. Unabhängig vom Werbemarkt haben natürlich werbestatistische Daten, allen voran die IVW-Zahlen, einen hohen Wert für Medienanbieter, denn sie helfen ihnen, ihren Erfolg (gemessen in Auflage) und den der Konkurrenzunternehmen zu vergleichen.

3 Werbewirkungsforschung

Das Ziel von Werbung ist es, eine Wirkung auf das Verhalten von Konsumenten zu erzielen: Letztlich sollen sie das beworbene Produkt kaufen oder die beworbene Dienstleistung in Anspruch nehmen. Doch die Erforschung, Messung, Prognose und das gezielte Hervorrufen von Werbewirkung gehört zu den schwierigsten Bereichen in dem gesamten Prozess der Marketing- und Werbeplanung. Auch die Mediaplanung muss sich mit dem Thema Werbewirkung explizit auseinandersetzen und Werbevermarkter argumentieren mit Ergebnissen der Werbewirkungsforschung für ihre Werbeträger.

3.1 Überblick Werbewirkungsforschung

Während die akademische Kommunikationswissenschaft Werbewirkung als Spezialfall von Medienwirkungen wissenschaftlich erforscht, hat die angewandte Werbewirkungsforschung eine andere Funktion: Sie soll Marketing-Entscheidern helfen, ihre Werbeaufwendungen richtig zu investieren. Beginnen werden soll mit einigen grundsätzlichen Überlegungen, die helfen, das oft sehr unspezifische Phänomen Werbewirkung aus Sicht der Mediapraxis und der angewandten Forschung näher einzugrenzen (zur Werbewirkungsforschung im Rahmen der kommunikationswissenschaftlichen Erforschung von Medienwirkungen vgl. Schenk 2007).

Wir können nach der Funktion der Untersuchungsansätze differenzieren und zwar nach drei Erkenntnisbereichen:
  • Grundlagenforschung: Damit sind Studien gemeint, die generalisierende Ergebnisse produzieren. Natürlich gehören wissenschaftliche Studien dazu, aber es gibt ebenfalls kommerzielle Grundlagenforschung. Auftraggeber sind meist Institutionen wie Verbände oder Gattungsmarketing-Organisationen der Medienanbieter. Diese Daten sind zwar marken- und/oder kampagnenspezifisch angelegt, werden aber dazu durchgeführt und veröffentlicht um allgemein relevante Annahmen zu überprüfen und entsprechende Ergebnisse und Erkenntnisse zu kommunizieren. Ein Nachteil besteht oft darin, dass hier ein gewisses Erkenntnisinteresse überwiegt und sich je nach Anbieter dann die Ergebnisse widersprechen können.

  • Kampagnenkontrollen: Eine tatsächliche Kampagne wird begleitend untersucht, um ihren Erfolg zu kontrollieren. Diese Analysen beziehen sich auf konkrete Kampagne und werden deshalb von Agenturen oder Kunden in Auftrag gegeben. Gelegentlich werden sie von Medienanbietern beauftragt, um einen bestimmten Werbekunden von der Leistungsfähigkeit ihrer Werbeträger zu überzeugen oder als besonderer Service gegenüber den Kunden. Ihre Ergebnisse stehen nur in Ausnahmen der Öffentlichkeit zur Verfügung, da viele Werbungtreibende die Ergebnisse als vertraulich einstufen, trotzdem werden gelegentlich solche Studien als „Case Studies“ publiziert. Sie werden parallel zur laufenden Kampagne und/oder danach (auch Ex-Post-Test oder Post-Test genannt) durchgeführt.

  • Statistische Modelle, die eine Prognose ermöglichen. Diese Studien und Analysen sollen helfen, den Erfolg einer geplanten Kampagne vorherzusagen, den Wirkungsbeitrag einzelner Faktoren zu bestimmen und unterschiedliche Szenarien zu überprüfen. Hierzu gehören Verfahren wie das ökonometrische Modelling (Marketing-Mix-Modelling), Attribution-Modelling und Predictive Analytics – die Begriffe werden weiter unten im Zusammenhang mit Modelling und Data Analytics erläutert.

Tracking-Studien, Panel-Untersuchungen und Single-Source-Daten

Viele Studien basieren auf einem Input-Output-Vergleich: Werbeaufwendungen (Advertising Spendings) oder die damit erkaufte Medialeistung (Reichweite, Bruttokontakte, GRP) werden in Beziehung gesetzt zu Werbewirkungsindikatoren (die heute zunehmend als „Key Performance Indicators“ = KPI bezeichnet werden). Für Werbeaufwendungen (über Nielsen Media Research) und die Media-Leistungswerte (über Mediastudien wie ma oder AGF-Fernsehforschung) liegen allgemein zugängliche Daten vor. Jedes Unternehmen dürfte über Daten zum ökonomischen Werbeerfolg aus ihrem eigenen Controlling verfügen (Abverkäufe, Umsatz, Bestellungen, Neukunden). Diese können durch Daten zu ökonomischen Indikatoren von Marktforschungsinstituten ergänzt werden (Marktanteile, Käufe im Haushalt, Konkurrenzdaten, etc.). Für die kommunikative oder psychische Werbewirkung – also das, was in den Köpfen der Konsumenten passiert – benötigt man zusätzliche Informationen. Diese müssen von Marktforschungsinstituten erhoben werden, entweder in Einzelstudien (auch Ad-Hoc-Studien genannt, die meist nur für einen Kunden durchgeführt werden) oder über regelmäßig stattfindende Wellenbefragungen (Tracking-Studien), die kundenspezifisch angelegt werden können, aber an denen sich auch mehrere Kunden beteiligen können.

Tracking-Studien

Viele Marktforschungsinstitute bieten diese regelmäßigen repräsentativen Wellenbefragungen (Tracking-Studien) an, bei denen standardmäßig Werbeindikatoren für diverse Produktgattungen abgefragt werden. Werbungtreibende können sich an diesen Studien beteiligen. Die Daten werden nur den zahlenden Kunden zur Verfügung gestellt. Die Intervalle, in denen die Wellen durchgeführt werden, sind zwar von Institut zu Institut unterschiedlich, meist werden sie aber wöchentlich angeboten. Dies ermöglicht den Kunden die Zeitabstände zu belegen, die sie für notwendig halten. Das kann bei einer Produkteinführung der wöchentliche Rhythmus sein, während bei kontinuierlicher Beobachtung die monatliche Erhebung ausreicht. Manche Werbungtreibende lassen die Daten nur in Kampagnenzeiträumen erheben, so dass über eine Nullmessung (vor dem Start), eine oder mehrere Messungen während der Kampagne und eine nach der Kampagne der faktische Werbeerfolg festgestellt werden kann.

Tracking-Studien mit Online Access Panels

In den vergangenen Jahrzehnten wurden Tracking-Studien meist über Telefon-Interviews (CATI) erhoben. Seit einigen Jahren gibt es die Möglichkeit Tracking-Studien online durchzuführen, über sogenannte Online Access Panels. Diese Panels halten zum Teil bis zu 300.000 Personen vor, die bereit sind sich online befragen zu lassen und für die Stammdaten (z. B. Alter, Geschlecht, Wohnort) vorliegen, die quotierte Zufallsstichproben zulassen. Der Nachteil der Panels liegt darin, dass sie als Grundgesamtheit bestenfalls alle Online-Nutzer repräsentieren können und sich voraussichtlich primär Personen beteiligen, die sich gerne befragen lassen. Andererseits spricht vieles für den Einsatz der Panels. Es können problemlos kleinere Grundgesamtheiten befragt werden, wie z. B. Frauen oder jüngere Personen zwischen 16 und 25 Jahren. In diesem Fall zieht man eben nur aus den entsprechend definierten Panel-Teilnehmern die Stichprobe und nicht aus allen Personen im Panel. Es können visuelle und audiovisuelle Elemente (z. B. Motive, Werbespots, etc.) eingesetzt werden. Bei speziellen Interessen besteht bei der Stichprobenanlage die Möglichkeit mit Versuchs- und Kontrollgruppe zu arbeiten. In diesem Zusammenhang liegt einer der größten Vorteile der Online Access Panels darin, dass man faktische Online-Kontakte mit Werbemitteln und Kampagnen mitmessen kann. Kundenspezifische Online-Werbemittel werden mit Zählpixeln (tags) gekennzeichnet, und sobald ein Panel-Teilnehmer Kontakt mit einem entsprechenden Werbemittel hat, kann der Panelbetreiber dies feststellen. Es kann sogar konkret festgestellt werden, wie viele Kontakte und auf welchen Websites die Kontakte generiert wurden. Dementsprechend könnte eine Stichprobe gezogen werden aus den Personen mit Online-Kontakt (Versuchsgruppe) und eine zum Vergleich ohne Online-Kontakt (Kontrollgruppe). Viele der Online Access Panel-Anbieter ermöglichen dies.

Kontaktbasierte Studien

Generell werden die Ergebnisse aus Tracking-Studien den Leistungswerten der eingesetzten Medien gegenübergestellt, um festzustellen, welchen Einfluss spezifische Maßnahmen auf die Werbewirkung haben. Die optimale Vorgehensweise wäre dabei die Analyse mit faktischen und personenspezifischen Medienkontakten (auch im Media-Mix). Damit könnte konkret untersucht werden, welche Personen mit welchen Kontaktmengen, auch in Variation der Mix-Kontakte, welche Wirkung aufweisen. Dies würde jedoch voraussetzen, dass man innerhalb der Tracking-Studie die Kontakte personenindividuell mit erhebt. Das ist jedoch mit ziemlich großem Erhebungsaufwand verbunden, da die Mediennutzung jedes Befragten möglichst präzise abgefragt werden müsste. In vielen einfachen Kampagnenkontrollen wird deshalb auf einen solchen Aufwand oft verzichtet.

Wenn die individuellen Kontakte nicht gemessen wurden, behilft man sich mit der Analyse von aggregierten Daten, z. B. dem Werbedruck (GRP) oder den eingesetzten Werbeaufwendungen pro Mediengattung. Früher geschah das nicht selten über einfache Korrelationsanalysen, mit denen man feststellte, in welchem Maße die Wirkung mit dem eingesetzten Werbedruck zusammenhing. Diese eher einfache Vorgehensweise wurde in den letzten zwanzig Jahren von multivariaten Marketing-Mix-Modellings abgelöst. Durch statistische Analysen (meist Regressionsanalysen) werden Zusammenhänge berechnet. Inzwischen gewinnen noch komplexere statistische Lösungen an Bedeutung, die unter den Begriff Predictive Analytics subsummiert werden können. Dazu mehr unter dem Abschn. 3.2.

Generalisierbare Tracking-Studien

Generalisierbare Tracking-Studien wurden in der Vergangenheit vor allem von den TV-Sendern durchgeführt und veröffentlicht – Studien wie „Qualitäten der Fernsehwerbung“ (ARD/ZDF), „Werbewirkungskompass“ (IP Deutschland) oder „AdTrend“ (SevenOneMedia) liefen über viele Jahre, wurden aber alle zu Beginn des Jahrtausends aus Kostengründen eingestellt. Die Fernsehvermarkter haben in den vergangenen Jahren ihre Kräfte gebündelt (im Rahmen der Gattungsmarketing Organisation Screenforce) und bieten derzeit eine neue Studie zur Werbewirkung an. Der ROI Analyzer (ursprünglich von SevenOneMedia entwickelt) analysiert mit statistischen Verfahren und Modellierungen die Fernsehnutzung auf Kontaktebene mit konkreten Käufen im Haushalt. Die Kaufdaten (nur sogenannte Fast Moving Consumer Goods) werden mit den TV-Nutzungsdaten der AGF fusioniert und gehen zusammen mit den Werbeaufwendungen (Nielsen Media Research) in ein Modelling ein, um so die Rendite der TV-Werbung (Return on Investment = ROI) zu berechnen (vgl. Screenforce 2017).

Die großen Zeitschriftenverlage griffen die Idee von großen Tracking-Studien auf, nachdem die TV-Sender ihre Projekte aus Kostengründen aufgaben. So wurde ein gemeinsames Projekt ins Leben gerufen, das den Anspruch hatte eine Intermedia-Beurteilung verschiedener Gattungen zuzulassen. Ad Impact Monitor (AIM) wurde von einem eigens gegründeten Verein herausgegeben, in dem zwölf Verlage organisiert waren. Der Versuch Vermarkter anderer Mediengattungen zur Mitarbeit zu bewegen, ist allerdings gescheitert. AIM wird aber seit 2014 unter der Bezeichnung Best for Tracking (b4t) weitergeführt. Kern ist das „Marken-Tracking“, bei dem Medienkontakte und Werbewirkungsindikatoren für mehrere hundert Marken kontinuierlich durch Online-Interviews erhoben werden. So werden jährlich 14.000 Menschen befragt. Die Ergebnisse werden den Mediaagenturen zur Verfügung gestellt und fallweise veröffentlicht.

Die Verbände OWM und OMG forderten seit 2013 eine gattungsübergreifende Werbewirkungsforschungsinitiative aller Mediengattungen unter der Prämisse, dass jede Gattung ihre Studie selbst durchführen lassen sollte, gleichzeitig aber Informationen zur Nutzung aller Mediengattungen einheitlich miterhoben werden. Im Anschluss sollten die Daten zu einer großen Untersuchung zusammengeführt werden. Diese Untersuchung ist in der Pilotphase gescheitert, da sich bei der Auswertung zeigte, dass sich das Vorhaben nicht auf ein gemeinsames Plattformmodell übertragen lässt (vgl. Paperlein 2016b). Aus dem Projekt entstand aber die Qualitätsinitiative Werbewirkungsforschung, bei der Vertreter aller Mediengattungen sich für eine größere Transparenz bei Werbewirkungsstudien einsetzen. So werden auf einer gemeinsamen Website – www.werbewirkung-forschung.de – zum Beispiel umfangreiche Studiensteckbriefe von Werbewirkungsstudien der beteiligten Unternehmen und Institutionen veröffentlicht (vgl. Horizont 2017a).

3.2 Modelling und Data Analytics

Modelling hat als statistisches Verfahren zur Identifikation der relevanten Einflussfaktoren auf die vordefinierten messbaren Ziele (KPIs) einer Marke viel an Bedeutung gewonnen und spielt aktuell im sogenannten Data Driven Marketing eine wichtige Rolle. Da gerade Werbevermarkter zunehmend mit dem Thema Wirkung gegenüber ihren Werbekunden argumentieren, scheinen Modellings und andere datenanalytischen Verfahren die Funktion der klassischen, auf Reichweite und Kontakte basierenden Publikumsforschung mehr und mehr zu übernehmen. Diese Entwicklung wird besonders durch die Online-Vermarkter vorangetrieben, weshalb es sinnvoll ist, sich damit im Zusammenhang von kommerzieller Publikumsforschung zu beschäftigen.

Die Grundidee des Modelling

Genau genommen geht es jedem Werbungtreibenden um die Beantwortung der Frage: „Wie kann man Marketing- und Media-Budgets optimieren?“. Seit den 1990er-Jahren werden hierzu zunehmend statistische Verfahren eingesetzt, die mit den Begriffen ökonometrisches Modelling oder Marketing-Mix-Modelling versehen wurden. Der britische Werbeforscher Simon Broadbent propagierte die Methode explizit für die Optimierung von Mediaplänen und regte so eine Entwicklung an, bei der Modelling immer stärker von Mediaagenturen eingesetzt wurde (vgl. Broadbent und Haarstick 1999). Am Anfang dieser Entwicklung standen noch einfache Modelle, über die versuchte wurde die Werbeaufwendungen oder den Werbedruck den auf Basis von Tracking-Studien erhobenen Wirkungsindikatoren (primär Brand Awareness/ Markenbekanntheit und Advertising Awareness/ Werbeerinnerung) gegenüber zu stellen. Später gewannen dann Daten über Abverkäufe die Oberhand, was dazu führte, dass immer weitere Einflussfaktoren aus dem Marketingbereich einbezogen wurden. Neben dem Medieneinsatz wurden nun zusätzlich Faktoren wie Preis, Promotions/Verkaufsförderung, Distribution, Konkurrenzmaßnahmen oder Saisonalitäten (z. B. Feiertage) mitberücksichtigt. Dass selbst das Wetter einen eklatanten Einfluss auf den Absatz bestimmter Produkte haben kann, wurde spätestens dem Analysten klar, der die Absatzschwankungen von Erfrischungsgetränken oder Bier im Sommerverlauf zu erklären versuchte (vgl. Form 2007).

Werbungtreibende und Agenturen sind bestrebt, die Wirkung der medialen Werbeaufwendungen zu überprüfen und zu optimieren. Um die Werbewirkung einer Kampagne zu kontrollieren, werden messbare Indikatoren selektiert, die die Ziele einer Kampagne am besten widerspiegeln. Selbstverständlich erzielt eine Markenkampagne nicht nur eine einzelne isolierte Wirkung, deshalb muss jener Indikator definiert werden, der für die jeweilige Kampagne im Vordergrund steht und messbar ist. So steht zum Beispiel bei der Einführung eines neuen Produkts meist eher die Bekanntheit als Ziel im Vordergrund, Abverkäufe (Sales) sind noch eher unbedeutend. Anderseits gibt es viele Kampagnen für Fast Moving Consumer Goods (FMCG), deren Ziel es ist, so schnell wie möglich hohe Sales-Zahlen über Erstkäufer zu generieren. Dann würde eher der Umsatz als KPI definiert.

Wenn ein geeigneter KPI für den Kampagnenerfolg gefunden wurde, wird dieser im Rahmen des Modelling-Projekts im Zeitverlauf betrachtet. Unter optimalen Voraussetzungen wird beim Modelling die KPI-Entwicklung auf Basis der Wochen- oder Monatsdaten der letzten 3 Jahre untersucht. Anschließend erfolgt die Analyse der Zusammenhänge zwischen dem untersuchten KPI und den möglichen Einflussgrößen, für die Daten zur Verfügung stehen. Als Ergebnis erhält man die Einflussfaktoren im Modell, die mit dem Ziel-KPI einen signifikanten Zusammenhang aufweisen. Methodisch gesehen liegt dem Modelling eine multiple Regression zugrunde, die die simultane Wirkung verschiedener Einflussgrößen analysiert (vgl. Backhaus et al. 2015). Diese Einflussgrößen können sowohl medial als auch nicht medial (z. B. Preisreduzierung, Verkaufsförderung am Point of Sale, Lufttemperatur) sein. Mediale Einflussgrößen werden zusätzlich non-linear transformiert, damit der Grenznutzen der Media-Wirkung berücksichtigt werden kann.

Psychologisch gesehen unterliegt die Media-Wirkung zwei divergierenden Kräften – dem Lernen und dem Vergessen. In Abhängigkeit davon, wie kompliziert eine mediale Botschaft und wie erklärungsbedürftig ein Produkt oder eine Dienstleistung ist, wird diese Botschaft vom Konsumenten schneller oder langsamer gelernt. Mit der Zunahme der Werbewirkung im Zeitverlauf wird die Werbebotschaft von bestimmten Personen, die ihre Kontakte zu Beginn der Kampagne hatten, schon wieder vergessen. In der Werbewirkungsforschung spricht man deshalb in diesem Zusammenhang von Depot-Effekten und Rate of Decay. Die Decay Rate (Vergessensrate) drückt aus, wie schnell die Werbewirkung wieder verfällt, also vergessen wird. Der Anteil der Werbewirkung, der nach einer bestimmten Zeit noch vorhanden ist, bezeichnet man als Depot oder Adstock. Die mediale Wirkung wird ständig durch dieses Zusammenspiel vom Lernen und Vergessen geformt. Die beiden Effekte werden in der non-linearen Transformation berücksichtigt und ermöglichen wichtige Insights zu Fragen des Media-Einsatzes.

Modelling beantwortet sowohl strategische als auch taktische Fragen der Media Planung. Zu den wichtigsten strategischen Fragestellungen gehören diese: Welche Faktoren beeinflussen einen KPI einer Marke und in welchem Ausmaß? In welchem Verhältnis steht dieser Wirkungsbeitrag zu den eingesetzten Werbeaufwendungen? Wann ist der Grenznutzen erreicht? Welcher Media-Mix ist optimal? Zu den wichtigsten taktischen Fragestellungen, die ein Modelling beantworten kann, gehören Fragen wie: Was ist der optimale wöchentliche Werbedruck pro Medium oder wie lange darf die maximale Werbepause pro Media-Kanal sein?

Auf Basis eines berechneten Modells können zukünftige Entwicklungen des untersuchten KPIs prognostiziert und Wenn-Dann-Szenarien durchgespielt werden. Die häufigsten Fragen der Marketing-Entscheider können so beantwortet werden: Was passiert, wenn das TV-Budget um 10 % oder 20 % reduziert wird? Was passiert, wenn man eine längere Werbepause einlegt? Welche Auswirkung hat eine Reduktion oder eine Aufstockung des Media Budgets auf den KPI? Wieviel mehr müssen wir für Werbung aufwenden um unseren Bekanntheitsgrad oder Marktanteil von x auf y % zu erhöhen?

Zunehmende Komplexität durch Digitalisierung und neue Kommunikationsmöglichkeiten

Inzwischen hat sich die Medienlandschaft durch Digitalisierung und Fragmentierung eklatant verändert (vgl. Bowman 2018; Young 2010). Parallel dazu entstand ein vielfältiges und neues Angebot an Kommunikationsmöglichkeiten mit den Konsumenten. Digitale und mobile Medien begleiten uns heute im kompletten Tagesablauf. Dennoch gibt es gibt kaum Marken, die Online als Basismedium einsetzen, da über Online-Werbeträger noch nicht die gleichen Reichweiten wie bei klassischen Medien erzielbar sind. Selbst E-Commerce-Anbieter setzen deshalb verstärkt auf TV in ihrem Media-Mix. Sehr häufig setzt man Online-Bewegtbild oder Display ein, um inkrementelle Reichweiten in den jüngeren oder eher männlichen Zielgruppen zu erzielen, da diese gut über Online erreicht werden können und gleichzeitig immer schlechter über die anderen Medien erreicht werden.

Wird Online als relevanter Kanal im Media-Mix betrachtet, dann stellt sich trotzdem die Frage, ob man die digitalen Werbeträger überhaupt isoliert, also als direkten Einflussfaktor auf die Wirkung betrachten darf. Selbst beim Online-Kauf können letztlich Werbekontakte in anderen Medien beigetragen haben. Online ist dann zwar das letzte Medium im Kaufprozess (Path to Conversion), hat aber insgesamt betrachtet vielleicht nur eine geringe Rolle bei der Entscheidungsfindung gespielt. Wird dies nicht berücksichtigt, besteht die Gefahr, dass man Online zum Teil massiv überbewertet. Viele neigen generell zu einem solchen Fehlschluss, weil im Online-Bereich eine breite Datenbasis leicht verfügbar vorliegt. Diese Daten können aber die Customer Journey (d. h. den Kaufentscheidungsprozess) und vor allem die Rolle der nicht-digitalen Medien meistens nicht vollständig abbilden.

Im Unterschied zu den klassischen Massenmedien bietet Online neben all den bisher bekannten Formen auditiver, visueller und audiovisueller Impulse vor allem den Vorteil der individuellen Kommunikation der Nutzer. Persönliche Ansprache mit der Möglichkeit der Interaktion, dem Informationsaustausch, der aktuellen Reaktion auf Angebote bis hin zum direkten Kauf. Den klassischen Medien werden im Marketing eher die Funktion der Bekanntmachung neuer Marken, Produkte oder Kampagnen zugeschrieben, weil sie es mit relativ hohen Reichweiten in den jeweiligen Zielgruppen schaffen, Produktinteresse und Markenpräferenzen aufzubauen. Hingegen bietet Online vor allem die Möglichkeit direkter Wechselbeziehungen. So entstanden neben den bisherigen Paid-Media-Angeboten (also bezahlter Mediawerbung) Chancen zu weiteren kommunikativen Engagements, mit der die Markenpflege intensiviert werden konnte: „Owned Media“ (eigene Kanäle wie Websites oder YouTube-Channel) und „Earned Media“ (z. B. Nutzerempfehlungen in sozialen Medien; die Einteilung in „Owned“, „Earned“ und „Paid Media“ wurden bereits in der Einleitung erläutert). Über Online Kanäle haben wir heute ein breites Repertoire an Kommunikationsmöglichkeiten: Wir können (ebenso wie bisher über klassische Medien) die Konsumenten mit Werbebotschaften ansprechen (Bewegtbild/Display), wir können mit ihnen über Social-Media-Kanäle (Facebook, Twitter etc.) kommunizieren, sie bei der Suche in Google erreichen oder über unser eigenes Webangebot (Marken-Website) in Kontakt treten. Den Konsumenten ermöglicht dies im optimalen Fall die umfassende Interaktion mit einem Hersteller oder einer Marke. Es bietet Informations- und Erfahrungsaustausch, ermöglicht Kritik, Anregungen und Lob zu allen Aspekten, die ihnen in diesem Zusammenhang wichtig sind (vgl. Schmidt 2018).

Innerhalb des Marketings stellt dies eine große Herausforderung dar und erfordert im Vergleich zu früheren Zeiten den Einbezug einer Vielzahl kommunikativer und absatzspezifischer Möglichkeiten und Chancen im umfassenden Dialog mit dem Konsumenten. Dasselbe gilt für die Werbe- und Media-Agenturen, die bisher mit diesen Bereichen betraut waren und sind. Innerhalb der Media-Agenturen sprechen wir von crossmedialer Vernetzung, müssen uns aber gleichzeitig mit einer Vielzahl weiterer Aspekte vertraut machen. Und spätestens da kommt Modelling ins Spiel und nimmt eine große Verantwortung auf sich. Die Beantwortung der Frage nach der Bedeutung der Werbeaktivitäten in den Online Kanälen stellt zunächst noch eine eher einfache Aufgabe dar. Welche Wirkungen man über Owned und Earned Media realisieren kann, macht die Aufgabe schon deutlich schwieriger. Denn hier gilt es einerseits festzustellen und zu definieren wie man z. B. mit Social Media umgehen kann, welche Wirkungsindikatoren (KPIs) sinnvoll sind und in welchem Kontext man diese Effekte dann pragmatisch interpretieren kann. Dabei sind die üblichen Online-KPIs wie Impressions, Clicks oder Conversions (bis hin zum Kauf bzw. der Bestellung oder dem Download) problemlos zu analysieren, müssen aber im Kontext des crossmedialen Wirkens betrachtet werden. So wird ein Suchvorgang z. B. über Google Search sehr oft über Werbung in klassischen Medien ausgelöst oder TV aktiviert. Diese Einflüsse sind eher komplex und indirekt, weshalb sie schwieriger im Modelling-Prozess zu integrieren sind, da man sie nicht einfach und isoliert betrachten kann. Einheitliche bzw. marktübliche Definitionen, wie sie bei der Bewertung der klassischen Medien seit langem vorhanden sind, existieren bis heute für die Bereiche Owned und Earned Media nicht. Wie soll man z. B. „Likes“ bei Social Media monetär und wirkungsspezifisch bewerten und was sind Besuche (Visits) der Konsumenten auf meiner Homepage wert? Themen, die bisher eher individuell und von Unternehmen zu Unternehmen und Agentur zu Agentur unterschiedlich gehandhabt werden. Den sogenannten Gold Standard gibt es dafür noch nicht.

Hier kann man eigentlich nur einzelne spezielle Zusammenhänge untersuchen. Wenn es z. B. das Ziel einer Kampagne war, die Marke zu emotionalisieren, dann kann sich trotzdem die Frage stellen, inwieweit die Anzahl der Likes zum Absatz im Verhältnis steht. In dem Fall müsste sich idealerweise eine Zunahme von Likes auch entsprechend auf den Absatz auswirken. Dies ist zwar ein einfacher, aber eventuell sinnvoller Indikator, der allerdings alle anderen Effekte von Social Media-Maßnahmen außenvorließe. Darüber hinaus lässt sich meist keine direkte Wirkung nachweisen, da solche Maßnahmen und Kampagnen eher langfristig auf den Markenkern eines Unternehmens oder einer Marke einzahlen (vgl. Engel 2017). Eine weitere Dimension bei Social Media stellt der sogenannte „Buzz“ über eine Marke dar – ob über sie innerhalb und außerhalb der Medien geredet wird. Dieser kann ein guter Indikator für das Image einer Marke sein. Obwohl Social-Media-Buzz nicht repräsentativ ist und von wenigen aktiven Nutzern verfasst wird, ist seine Bedeutung nicht zu unterschätzen, da er von vielen passiven Nutzern wahrgenommen werden kann. Analysen haben gezeigt, dass es eine hohe Korrelation zwischen dem Social-Media-Buzz und den Gesprächen über eine Marke gibt, wie sie im „Brand Index“ des Marktforschungsinstituts YouGov (der auf Befragungsdaten basiert) abgebildet werden (vgl. https://yougov.de/loesungen/brandindex/). Somit kann Social-Media-Buzz als Indikator für Zufriedenheit mit einer Marke oder für die Weiterempfehlungsbereitschaft dienen. Wenn eine Marke gerade in der Krise steckt, schlägt sich dies in vielen Fällen im Social Media Buzz nieder. Inwieweit es der Marke dann gelingt gegen eine derartige Krise gegenzusteuern, kann man dann an der Entwicklung des Buzz feststellen.

Ein wichtiges Thema für Agenturen und darauf spezialisierte Dienstleister stellen Path-to-Conversion-Analysen dar, bei denen versucht wird den Entscheidungsprozess des Konsumenten nachzuvollziehen. Diese analytische Vorgehensweise findet so gut wie ausschließlich beim Online-Einsatz statt, da hier die einzelnen Touchpoints und die angestrebte Conversion nachvollzogen werden können. Unter dem Begriff des Attribution Modellings, also der Zuordnung der Wertigkeit eines einzelnen Kontakts auf dem Weg zur Conversion, werden aber oftmals nur einfache Modelle, wie „Last Cookie Wins“ zugrunde gelegt und bewertet. Diese Vorgehensweise macht jedoch meist keinen Sinn, da es darum gehen muss, dass jeder Kontaktpunkt anhand seiner faktischen Wertigkeit beurteilt wird – und dies nicht nur im Internet, sondern im optimalen Fall über alle eingesetzten Medien. So ist es wichtig, dass gerade die klassischen Medien mit einbezogen werden. So kann zum Beispiel TV-Werbung dazu veranlassen, dass man mittels Suchanfragen bei Google oder anderen Suchmaschinen auf die Website einer Marke oder eines Unternehmens geht, um sich dort zu informieren oder etwas zu bestellen. Search Advertising kommt beim Path-to-Conversion oft eine große Bedeutung zu, auch weil viele Personen durch klassische Medien auf Websites hingewiesen werden, trotzdem aus Bequemlichkeit über den „Umweg“ einer Suchmaschine zur Website gelangen.

Zur umfassenden Berücksichtigung aller Einflussfaktoren müssen mehrstufige Modelle entwickelt werden, über die versucht wird alle Relationen und vor allem Synergieeffekte mit abzubilden. Auf der Markenebene werden die Modelle ebenfalls komplexer. Die Marketing-Verantwortlichen wollen nicht nur das Mediabudget für ein Produkt optimieren, sondern auch innerhalb eines Portfolios. So geht man bei der Analyse einzelner Produkte einer Marke heute so vor, dass man zunächst das gesamte Produktportfolio betrachtet. In diesem Zusammenhang kann man wichtige Halo-Effekte (Abstrahlungseffekte) und Dachmarkeneffekte besser erkennen. Man kann Einflüsse von Produkt-Launches auf schon bestehende Produkte untersuchen und eventuell vorhandene Kannibalisierungseffekte feststellen. Diese Insights aus einem Portfolio-Modelling ermöglichen dann die Optimierung des gesamten Media Investments über alle Produkte einer Marke. Bei international operierenden Konzernen wird die Verteilung der Budgets auf verschiedene Länder mit Modellings unterstützt (vgl. Berndt et al. 2016).

Es sind enorme Datenmengen, die uns inzwischen zur Verfügung stehen und die man noch vor einigen Jahren technisch gar nicht hätte bewältigen können. Und es ist die Vielfalt der Datenangebote und der unterschiedlichen Datenquellen, die berücksichtigt und analysiert werden müssen. Denn letztlich geht es darum, aus den wesentlichen Informationen die sinnvollen Zusammenhänge herzustellen – also die relevanten Signale im Datenrauschen herauszuschälen (vgl. Silver 2013). Es sind jene, die für das Unternehmen (bzw. die Marke) zukünftig von großer Bedeutung sein werden und somit helfen, optimale Vorgehensweisen und Handlungsvarianten zu entwickeln. Genau genommen geht es also um die jeweils relevante und intelligente Selektion der Daten aus der gigantischen Datenmenge, die die notwendigen und relevanten Fragestellungen zum Status und für die Weiterentwicklung einer Marke bzw. eines Unternehmens beantworten.

Andererseits sehen viele Experten darin ein Risiko: Denn die generierten Erkenntnisse aus den immer größer werdenden Datenmengen suggerieren den Eindruck, dass wir alles wissen können und entsprechend alles möglich sei. Doch genau genommen arbeiten wir immer auf der Basis theoretisch und pragmatischer Annahmen, aus denen Modelle entwickelt werden, die sich in der Praxis immer wieder beweisen müssen (vgl. Turcsanyi und Schützendorf 2012).

Predictive Analytics

Mit den zunehmenden Möglichkeiten der Messungen im Online-Bereich, haben die Predictive Analytics- Verfahren an Bedeutung gewonnen. Der Begriff Predictive Analytics wird am häufigsten im Zusammenhang mit Data Mining und Machine Learning verwendet. Das Ziel der Predictive Analytics ist zukünftige Entwicklungen vorherzusagen. Der wesentliche Unterschied zum Modelling besteht darin, dass man bei Predictive Analytics nicht mit aggregierten, sondern mit fallbasierten Daten arbeitet. Diese Daten stehen bisher meist nur für Online-Kampagnen zur Verfügung.

Dazu ein Beispiel: ein Autohersteller möchte mit seiner Online-Kampagne erreichen, dass sich die Konsumenten für eine Probefahrt mit seinem neuen Automodell online anmelden. Die Agentur spielt die Kampagne nur an die Konsumenten aus, für die das Thema „Autokauf“ gerade relevant ist, da man damit die Kampagnenressourcen am effizientesten einsetzen kann. Um diese Zielgruppe so präzise wie möglich zu definieren und online zu erreichen, können spezielle Dienstleister eingesetzt werden. Zunehmend werden in den Unternehmen selbst eigene Daten mit zugekauften, so genannten „Third Party-Daten“ auf DMPs (Data Management Platform) gesammelt. Die Website- und Profildaten werden den Agenturen oder speziellen Online-Dienstleistern zur Verfügung gestellt, die dann damit arbeiten. Sie können die Profildaten nach verschiedenen Merkmalen segmentieren, wofür diverse Klassifizierungsmodelle (Random Forest, K-Means etc.) zum Einsatz kommen. Als Ergebnis werden zum Beispiel diejenigen, die mindestens dreimal in den letzten zwei Wochen automobilscout.de besucht haben und sich gleichzeitig für einen Kredit interessieren, dem Segment „Autokaufinteressierte“ zugeordnet. Man kann einen Schritt weitergehen und untersuchen, mit welcher Wahrscheinlichkeit, jeder von diesen „Autointeressierten“ sich zu einer Probefahrt mit dem beworbenen Modell anmeldet. Um diese Frage zu beantworten, braucht man entweder ein Set an Usern, die sich schon einmal für die Fahrt mit diesem Automodell angemeldet haben, oder man arbeitet mit Annahmen. Dazu werden die Einflussfaktoren aus den zur Verfügung stehenden Daten identifiziert, die für eine Probefahrtanmeldung ausschlaggebend sind. Darauf basierend werden personenindividuell die Prädikatoren berechnet, die sich zur Vorhersage eines bestimmen zukünftigen Verhaltens eignen. „Mehrere Prädikatoren werden zu einem Vorhersagemodell kombiniert, um künftige Wahrscheinlichkeiten mit einem akzeptablen Maß an Zuverlässigkeit zu analysieren. Bei der prädikativen Modellierung werden Daten gesammelt, ein statistisches Modell erstellt, Vorhersagen getroffen und das Modell validiert oder geändert, wenn zusätzliche Daten verfügbar sind.“ (http://www.searchenterprisesoftware.de/definition/Predictive-Analytics).

Das bedeutet, dass die Modelle im Unterschied zum Modelling jederzeit aktualisiert werden können (in „realtime“). Jeder neue Fall kann ins Modell aufgenommen werden und verbessert das Modell und die entsprechende Prognose.

Diese Entwicklung ist von großer Bedeutung für den Einsatz aller kommunikativen Maßnahmen und Werbemittel eines Unternehmens im Internet. Der Trend geht entsprechend weg von der zielgruppenspezifischen und massenmedialen Betrachtung von Konsumenten und hin zur Sammlung, Aufbereitung und Analyse qualitativer, personenindividueller Daten über die Verhaltensbeobachtung der einzelnen Personen im Internet. Dieser Analysebereich wird die Zielgruppenforschung enorm erweitern und gleichzeitig verändern, so dass sich alle Marktpartner darauf einstellen und beteiligen müssen. Denkt man diese Entwicklung weiter, so wird dies nur über automatisierte Prozesse funktionieren. Im Zusammenhang mit selbstlernenden Funktionen spricht man von Machine Learning oder Künstlicher Intelligenz (vgl. Gentsch 2017). Dies betrifft zunächst nur das Internet, da es keine Profildaten für die anderen klassischen Mediengattungen gibt. Die Verbindung von Online-Profildaten mit Nutzungsdaten der anderen Mediengattungen, muss also noch über andere Wege hergestellt werden. Wenn dann aber irgendwann alle Medien digital werden, dann werden alle Medien „addressable“, und alles, was „addressable“ ist, kann programmatisch werden (vgl. Horizont 2017b). Inwieweit sich die im Jahr 2018 etablierte Datenschutzgrundverordnung auf das faktische ‚Sammeln‘ individueller und deterministischer Daten im Internet auswirkt, kann aktuell noch nicht abschließend bewertet werden. Die hier skizzierte programmatische Vorgehensweise wird dadurch voraussichtlich ebenso beeinflusst wie sich Lücken ergeben werden, die für das Verfahren aktiv genutzt werden können.

Bedeutung für die kommerzielle Publikumsforschung

Die oben erläuterten Entwicklungen und Verfahren haben für die kommerzielle Publikumsforschung eine eklatant zunehmende Bedeutung:

Für die Vermarktung von Online-Marketing-Services sind umfassende Analysen wichtiger als herkömmliche, auf repräsentativen Stichproben basierende Reichweitendaten. Die Vorteile eines Online-Werbeträgers werden dann mit Hilfe von Datenanalysen und konkreten Erfolgskontrollen herausgestellt. Reichweiten- und Strukturdaten der klassischen Mediaforschung (das gilt auch für die Online-Mediaforschung der ma Internet und der AGOF) haben in diesem Marktsegment kaum noch Bedeutung. Die großen Online-Vermarkter wie Facebook und Google unterstützen große Werbekunden umfassend mit Analyseleistungen, von denen nur wenige veröffentlicht werden (z. B. auf dem Webangebot „Think with Google“, vgl. https://www.thinkwithgoogle.com/intl/de-de/).

Die – echte oder vermutete – bessere Messbarkeit von digitalen Maßnahmen setzt andere Medienanbieter unter Druck, ebenfalls bessere und genauere Wirkungs- und Erfolgsanalysenvorzulegen. Deshalb bieten heute schon viele Vermarkter ihren Werbekunden kampagnenbegleitende Analyse-Projekte an – so z. B. die Radiovermarkter mit dem Modul „Sales Effekt“ im Rahmen ihrer Forschungsinitiative „Audioeffekt“ (vgl. Bayer und Domenichini 2015) oder die Zeitungs-Marktforschungs-Gesellschaft (vgl. https://www.zmg.de/).

Während die kommerzielle Publikumsforschung der letzten 100 Jahre sich auf das Thema Reichweiten und Nutzerstruktur konzentriert hat und die Methoden der empirischen Sozialforschung nutzte (repräsentative Stichproben, Umfragen), wird sie in der Zukunft mehr und mehr auf einer Werbewirkungsforschung auf Basis von Data Science (große Datenmenge, komplexe Analyseverfahren, Automatisierung) beruhen. Dieser Umbruch ist jetzt schon bemerkbar und äußert sich in der zunehmenden Analysekompetenz der klassischen Werbevermarkter und der Forderung nach „neuen KPIs“.

4 Publikumsforschung für Redaktion und Vertrieb

Wie bereits eingangs erwähnt, bewegen sich Medien auf zwei Märkten – dem Werbemarkt und dem Markt der Mediennutzer. Im Markt der Nutzer geht es um Vertriebserlöse und/oder Medienzeit (im idealen Fall: Aufmerksamkeit). Wie jedes andere Produkt oder jede andere Dienstleistung müssen Medienangebote verkauft oder verbreitet werden, weshalb hier Marketing notwendig ist (vgl. Pezoldt und Sattler 2009). Marketing erfordert Informationen, die durch Marktforschung erhoben wird. Darum soll es in diesem Kapitel gehen. Allerdings bleibt es, wie in der Einleitung begründet wurde, eher kurz. Denn es gibt nur wenig Literatur und Veröffentlichungen zu dem Thema, obwohl bekannt ist, dass Medienunternehmen in eigene Marktforschung investieren. Hier kann man verschiedene Arten von Forschung unterscheiden:
  • Der wichtigste Aspekt ist die Nutzung der Daten der Mediaforschung, wie sie in diesem Kapitel erläutert wurden, für Fragen des Medienvertriebs, des Medienmarketings und des redaktionellen Angebots. Lehr- und Handbücher verweisen auf diese Zahlen (vgl. z. B. Pezoldt und Sattler 2009; Rau 2000).

  • Eigene Marktforschung der Medienunternehmen, bei denen meist die derzeitigen Nutzer und Kunden befragt werden. Dabei geht es in erster Linie um die Optimierung des redaktionellen Angebots. Hier wird mit den üblichen Methoden der Marktforschung gearbeitet, die in anderen Produktbereichen und Branchen zum Einsatz kommen und deshalb hier nicht referiert werden müssen.

  • Marktforschung im Zusammenhang mit der Konzeption oder des Testens von möglichen neuen Medienangeboten, z. B. neuen Zeitschriftentiteln oder neuen TV-Sendungen. Hier kommen typische Marktforschungsmethoden zum Einsatz, mitunter auch qualitative Methoden oder Workshops mit Nutzern (Co-Creation).

Mediaforschung als Quelle für Vertrieb und Redaktion

Mit Ausnahme von Online (und Außenwerbung) sind die Medienmärkte in Deutschland ausnahmslos gesättigt und innerhalb der Mediengattungen findet seit Jahren eine kontinuierliche Fragmentierung statt. Etablierte Zeitungen und Publikumszeitschriften verlieren ebenso Nutzer wie die linear arbeitenden Fernsehsender und Radioprogramme. Trotzdem müssen die Medienanbieter versuchen ihre Nutzerschaften so stabil wie möglich zu halten und entsprechende publizistische Inhalte und Programme zu produzieren und anzubieten, die im Nutzermarkt immer wieder erfolgreich sind. Diese Ausrichtung erfordert den Einsatz von Forschungsinstrumenten, die in der Lage sind (tages-) aktuell auf die Veränderungen einzugehen. Im Fernsehbereich kann dies durch die Daten des AGF-Fernsehpanels problemlos erfolgen und somit aktuell festgestellt werden, ob ein neues Format oder eine neue Serie auf die Seherinteressen trifft oder nicht. Noch einfacher ist es bei Online-Angeboten, da durch Web-Analytics jede Aktion auf der Website verfolgt werden kann.

(Tages-) Zeitungen und Publikumszeitschriften, deren Produkterfolg schon immer am Kiosk und im Einzelhandel über die Auflage entschieden wurde, erfahren dies über die aktuell verkaufte Auflage. Dies gilt ebenso für die Einführung neuer Produkte, die trotz Marksättigung und Fragmentierung von den meisten Verlagen weiterhin, oft mit Erfolg, betrieben wird. Selbst wenn es heute nicht mehr zu den hohen Auflagenzahlen reicht, die man von früher gewohnt war, gibt es immer wieder Titel, die sich in jüngster Zeit erfolgreich im Lesermarkt etablieren konnten. Die vorhandene Leserschaftsforschung (via ma Print) ist zur Darstellung aktueller Entwicklungen zwar etwas behäbig, doch kann über die zweimal jährliche Ausweisung dokumentiert werden, was sich im Lesermarkt getan hat. Da die Höhe der Leserschaft vor allem den Anzeigenpreis definiert, ist er für beide Seiten wertvoll, den Vertriebs- und den Anzeigenmarkt.

Weitere Marktforschung von Medienunternehmen

Radiosender verwenden Marktforschung ebenfalls zur Qualitätskontrolle ihres Angebots. Meist greifen sie auf schnelle und kontinuierliche Telefonumfragen zurück, um die Zufriedenheit mit dem Programm zu überprüfen. Neue Fernsehsendungen werden getestet, wobei auch apparative Verfahren eingesetzt werden, bei denen emotionale Reaktionen während des Sehens der Sendung gemessen werden (vgl. Suckfüll 2004).

Gerade im Printbereich spielen (redaktionelle) Copytests (noch) eine große Rolle. Darüber kann festgestellt werden, welche Themenbereiche, Rubriken und Artikel für die Leserschaft wichtig sind und auf welche eventuell verzichtet werden könnte. Neue Rubriken, Layouts oder andere Innovationen können so getestet werden. Oft werden dafür normale Umfragen eingesetzt, aber es gibt auch aufwendigere Methoden, z. B. Blickregistrierungsstudien (vgl. Bente 2004) oder das ReaderScan-Verfahren, bei dem die Befragten mit einem Scanner-Stift markieren, welche Artikel oder Zeilen gelesen wurden (vgl. Niggemeier 2006).

Bei Online-Medien gibt es ein umfangreiches Repertoire an Usability-Forschungsinstrumenten. Da ist ein eigenes, sehr ausdifferenziertes Feld, auf das wir aus Platzgründen nicht eingehen können (vgl, Sarodnick und Brau 2011; Groner et al. 2008). Es ist aber positiv anzumerken, dass bei Internet-Publishern eine hohe Sensibilität für die Wünsche und Bedürfnisse der Nutzer anzutreffen ist. Die gleiche Selbstverständlichkeit, den Mediennutzer als Kunden anzusehen und auf seine Wünsche und Erwartungen einzugehen, findet man bei anderen Medienanbietern leider nicht. Das gilt gerade für diejenigen, die für das inhaltliche Angebot verantwortlich sind – die leitenden Redakteure, deren mangelnde Kenntnisse des eigenen Publikums oft kritisiert wird. Oft scheint es an Wissen über die vorhandenen Daten der Mediaforschung zu mangeln, obwohl die Kollegen aus den Anzeigenabteilungen mit ihren Datenschätzen nur wenige Büros weiter zu finden sind (vgl. Wyss 2000).

Eine eher fragwürdige Entwicklung ist die Orientierung von Journalisten an Reaktionen auf ihre Produkte in sozialen Medien (Kommentar, Likes, Retweets etc.). Diese Art von Nutzer-Feedback ist zwar schnell und anschaulich, es bleibt aber die Frage, ob die in den sozialen Medien aktiven Nutzer repräsentativ für die „normale“ Nutzerschaft sind (vgl. Hölig 2018).

Grundsätzlich ist anzunehmen, dass die Bedeutung von Marktforschung im Nutzer- und Vertriebsmarkt steigen wird. Die rückläufigen Anzeigeneinnahmen bei vielen Printverlagen führen dazu, dass der Anteil der Vertriebserlöse am Umsatz steigt – weshalb der Vertriebsmarkt wichtiger wird. Bei kostenfreien Medien wie den kommerziellen Fernsehsendern wird der intermediale Wettbewerb durch Fragmentierung und Konkurrenz zu anderen Bewegtbildangeboten härter, weshalb ein Erfolg im Markt durch ein verbessertes Eingehen auf Zuschauerbedürfnisse erkämpft werden muss. Beides bedingt größere Marketing- und damit auch Marktforschungsaktivitäten.

5 Entwicklungstendenzen und Ausblick

Der gesamte Bereich der kommerziellen empirischen Publikumsforschung hat sich in den vergangenen Jahren enorm verändert – das haben die bisherigen Ausführungen in diesem Kapitel sicherlich deutlich gemacht. Die Umbrüche sind dabei noch lange nicht abgeschlossen, im Gegenteil: Die wirklich tiefgreifenden Veränderungen stehen noch bevor, denkt man zum Beispiel an den Bereich „Conversational Commerce“ (durch intelligente Sprachsteuerungssysteme; vgl. Gentsch 2017).

Ein bisher nur angedeuteter Aspekt muss noch abschließend erörtert werden: Wie sich die kommerzielle Publikumsforschung von den Werbevermarktern und den gemeinschaftlichen Institutionen zu den Media- und Werbeagenturen verschiebt.

Publikumsforschung in der Agentur

In den Agenturen wurde schon immer viel Media- und Marktforschung betrieben, da dies ein Mittel war, um sich im Wettbewerb gegenüber anderer Konkurrenten zu profilieren und positionieren. In den vergangenen Jahrzehnten waren gängige Themen der Agenturforschung: Das Sammeln von Consumer Insights, Situations- und Zielgruppenanalysen, strategischen Anhaltspunkten zur Bestimmung der notwendigen Medialeistung und zum Thema Werbedosis und Werbewirkung, Wirkungsanalysen und Erfolgskontrollen, Pretests von Werbemitteln, Analysen von Geomarketing-Daten zur Aussteuerung von lokalen Werbekampagnen und einiges mehr (vgl. Tina-Booh und Uhl 2015; Engel 2011). Diese Forschung war oft eher ein zusätzlicher Service, der für das Kerngeschäft – Planung und Einkauf von Werbekampagnen – eher eine Ergänzung war. Durch die Zunahme an Datenquellen, Steuerungsinstrumenten und Analysemöglichkeiten gerät jedoch der Bereich Marketing Analytics und Predictive Analytics zunehmend in den Vordergrund. Die Aufgabe der Agenturen sind folgende:
  • Die verschiedenen Datenströme, von denen immer mehr von außerhalb der klassischen Mediaforschung kommen, zu sammeln, zu kanalisieren, zu analysieren und möglichst anschaulich zu visualisieren (oft mit Hilfe sogenannter Dashboards).

  • Diese Daten für die konkrete Steuerung von Werbekampagnen über möglichst alle Kanäle und in „Realtime“ einzusetzen.

  • Darüber hinaus diese Daten mit anderen marketingrelevanten Daten zu verknüpfen und im gesamten Kontext zu analysieren.

Werbungtreibende erwarten von ihren Agenturen oder speziell dafür eingesetzten Dienstleistern in der nahen Zukunft zunehmend präzise und personenspezifische Daten, mit denen Interessen, Präferenzen und Kaufwahrscheinlichkeiten prognostiziert werden können. Diese Daten sollen u. a. die Basis für das programmatische Vorgehen bilden. Media-Agenturen müssen diesen Weg mitgehen, um sich nicht mittel- bis langfristig überflüssig zu machen. Selbst die gerade von einigen Experten prophezeite Renaissance der Umfeldwerbung, die in der Folge der datenschutzrechtlichen Verschärfungen eintreten soll, ist wahrscheinlich nur eine zeitweilige Bremse und wird an der grundlegenden Tendenz wenig ändern. Der Bereich Research wird in vielen Agenturen entsprechend ausgeweitet und in Marketing Intelligence, Data Science o. ä. umbenannt. Damit stehen sie in einem harten Wettbewerb gegenüber anderen Dienstleistern – etwa Unternehmensberatungen oder Software-Anbietern (vgl. Ansorge 2017). Aber die Werbevermarkter – angeführt von den Tech-Giganten Facebook und Google – mischen hier ebenfalls mit und weiten ihre Services weiter aus. Inwieweit es den Agenturen dann noch gelingt, die Hoheit über Profildaten, Predictive Analytics und umfassendes Programmatic Advertising zu erhalten, ist noch offen. Der aktuelle Status zeigt, dass die Agenturen zwar stark in diese Bereiche investieren, andererseits aber externe Dienstleister oft einen Vorsprung in Sachen Technologie und Beratungskompetenz haben, ganz zu schweigen von der wahrgenommenen Unabhängigkeit. Die werbungtreibenden Unternehmen selbst tendieren außerdem zunehmend zu kundeneigenen Plattformen, in denen alle Informationen intern gesammelt werden, die dann für Analyse- und Selektionszwecke Dritten zur Verfügung gestellt werden.

Trotzdem wird Werbeträgerforschung nach wie vor ein zentrales Thema zur Bewertung der Mediengattungen bleiben. Im Hinblick auf die Planung und Kontrolle von Multichannel- und Multiscreen-Kampagnen (die von der institutionalisierten Mediaforschung derzeit noch nicht befriedigend abgebildet werden) gibt es auch für die Agenturen noch ein breites Feld, was es zu beackern gilt. Alles in allem geht es immer noch darum, Zielgruppen und Publika besser zu verstehen, um die einzelnen Werbeträger präzise einzuschätzen und bewerten zu können.

Kurzfristige Entwicklungen der Mediaforschung

Mediaforschung wie wir sie kennen, wird solange ein wichtiges und relevantes Aufgabengebiet darstellen, wie die klassischen Mediengattungen genügend Nutzer ansprechen, die für das Marketing attraktiv sind. Vielleicht wird irgendwann alles, was in der einen oder anderen Form digitalisiert ist, den empirischen Untersuchungen nicht mehr bedürfen, aber bis dahin wird noch einige Zeit vergehen. Doch Art und Weise, wie Publikumsforschung heute stattfindet, hat sich dennoch im Vergleich zu noch vor fünf oder zehn Jahren eklatant verändert. Es werden immer mehr Daten aus unterschiedlichen Quellen und mit verschiedenen methodischen Vorgehensweisen erhoben und gemessen, die dann qua Fusion oder ähnlicher Techniken miteinander verzahnt werden. Dies betrifft ausnahmslos alle Mediengattungen. Alle gattungsspezifischen Modelle basieren inzwischen auf der Erhebung bzw. Messung und anschließenden Zusammenführung mehrerer Säulen. Die Komplexität hat bei der Erhebung der Daten ebenso zugenommen wie bei der Verrechnung und Zusammenführung. Dennoch sind die Reichweiten- und Strukturinformationen der einzelnen Gattungen immer noch objektiv, valide und plausibel (vgl. Hallemann 2014). Gleichzeitig sind an vielen Stellen Justierungen und Verbesserungen wünschenswert. Gattungsspezifische Notwendigkeiten für Innovationen in der Mediaforschung wurden schon in den einzelnen Abschnitten angesprochen. Nachfolgend sollen nochmals die Anforderungen und das Optimierungspotenzial aufgezählt werden. Diese Wünsche an die institutionalisierte Mediaforschung sind größtenteils bekannt und werden von den Medien und ihren Organisationen bereits wahrgenommen und zum Teil bearbeitet:
  • Im Printbereich sollte es eine Lösung geben, um die Lesemenge mittels Scanner oder ähnlichen technischen Geräten zu erfassen. Denn es ist nicht optimal, Lesedauer und gelesene Ausgabe mittels Scanner zu erfassen, die eigentlich wichtige Lesemenge aber weiterhin über eine Verbalskala abzufragen. Technische Messungen bei Printmedien könnten das Problem der möglichen Überschätzungen der Leserzahl pro Exemplar entschärfen.

  • Die Radiomessung, durch die Abfrage des Tagesablaufs gestern, wird voraussichtlich langfristig durch eine passiv-apparative Messung ersetzt, die idealerweise Webradio-Angebote oder Werbekampagnen identifizieren kann. Das Smartphone bietet sich als mögliches Messgerät dafür an.

  • Immer mehr digitale Stellen im Außenwerbungsbereich können mit Profildaten verknüpft und zielgruppenspezifisch eingesetzt werden (morgens Haushaltsführende, mittags Schüler, etc.). Auch können Plakatstellen wahrscheinlich bald die an ihnen vorbeiziehenden Personen automatisch zählen.

  • Bewegtbild-Daten stehen mittelfristig für alle Angebote auf allen Screens bereit (Multiscreen). Das wird übermorgen für Kino und digitale Plakatstellen ebenfalls gelten.

  • Generell kommen überall dort, wo weiterhin empirische Forschung betrieben wird, zunehmend Online Access-Panels zum Einsatz. Hier müssen methodische und qualitative Anforderungen präzise definiert, berücksichtigt und kontrolliert werden.

Mittelfristige Herausforderungen der Mediaforschung

Programmatic Advertising, definiert als strukturiertes, systematisches und automatisches Vorgehen bei der Planung und dem Einkauf von Werbeplätzen in allen Mediengattungen mit Hilfe von Software auf Handelsplattformen, dominiert derzeit das Denken in den Agenturen. Jeder Marktteilnehmer sollte daran interessiert sein dieses Thema mitzugestalten. Im optimalen Fall bedeutet dies, dass umfassendes Inventar benötigt wird, also eine Vielzahl teilnehmender Websites, außerdem Schnittstellen, mit denen sich die (eigenen) Data-Analytics-Erkenntnisse mit Profil- und Website-Daten verbinden lassen. So könnte eine zielgruppenspezifische Reichweitenoptimierung ermöglicht werden, die User bei Kontakt weiterverfolgt, um sie mit intelligentem Re-Targeting anzusprechen und dabei gleichzeitig einen dynamischen und personenindividuellen Werbemitteleinsatz zu realisieren (vgl. Hass und Willbrandt 2011; Busch 2015). Dazu sind zunehmend Automatisierung und selbstlernende Systeme gefordert. Dies würde dann eine kontinuierliche Optimierung ermöglichen, die über Rückkopplung im kybernetischen Prozess, immer weiter dazulernen und den Mitteleinsatz kontinuierlich verbessern kann. Das, was man heute schon unter dem Begriff „künstliche Intelligenz (KI)“ versteht, wird auch im Mediageschäft zunehmende Bedeutung erlangen (vgl. Gentsch 2017). Mittelfristig wird man sich deshalb mehr auf die Überprüfung der KPIs und die Kontrolle der Maßnahmen und deren Wirkung konzentrieren, die sich (noch) nicht automatisieren lassen. Das gegenwärtig „große“ Thema, das immer noch im Raum steht und nicht gelöst ist, die umfassende und gattungsübergreifende Werbewirkungsforschung, wird uns also noch längere Zeit begleiten. Denn für die Werbungtreibenden und Agenturen wird es immer wichtiger nachzuweisen, dass ihre Werbemaßnahmen funktionieren und die richtigen Medien mit dem entsprechend optimalen Budget eingesetzt sind.

Langfristige Perspektiven: Konsequenzen zur Publikumsforschung in der Zukunft

Es ist natürlich denkbar, dass irgendwann in der Zukunft alles digitalisiert ist und jede Art von Marketing-Aktivität programmatisch gesteuert werden kann. Dann könnte die Forschung im herkömmlichen Sinn, so wie sie in diesem Kapitel dargestellt wurde, obsolet werden. Bis dahin ist es wohl noch ein weiter Weg. Denn das setzt voraus, dass alle Unternehmen und alle Konsumenten die digitale Transformation komplett durchlaufen haben. Davon sind wir noch weit entfernt. Trotzdem ist es sinnvoll über radikalere Entwicklungen, die sich langfristig abzeichnen, konsequent durchzudenken und sich in der einen oder anderen Weise darauf einzustellen (vgl. Chaibi 2018). Deshalb stellen wir am Schluss unseres Kapitels noch einige Thesen zur Diskussion, die einen Ausblick auf mögliche Wege der kommerziellen Publikumsforschung geben können:
  1. 1.

    Analyseverfahren, Datenfusionen. Machine bzw. Deep Learning und Algorithmen werden noch bedeutsamer. Unser Leben wird durch sie bestimmt – Werbesteuerung wird ein Teil davon sein.

     
  2. 2.

    Die klassische Mediaforschung, die auf repräsentativen Stichproben und Selbstauskünften beruht, verliert an Bedeutung. Das gleiche gilt für die sonstige Marktforschung, so dass sich die gesamte Forschungsbranche neu ausrichten muss.

     
  3. 3.

    Die Datenschutzbedürfnisse der Bürger werden die Publikumsforschung zunehmend beeinflussen.

     
  4. 4.

    Mediennutzung hinterlässt immer mehr digitale Spuren, das führt zu neuen Datenquellen. Sensor-technik in Kleidung, Autos und Gegenständen produzieren Daten, die auch für die Bedürfnisse des Werbe- und Medienmarkts genutzt werden.

     
  5. 5.

    Transparenz und Vertrauen werden zunehmend problematisch. Die JICs müssen sich den neuen Herausforderungen stellen – z. B. der Qualitätskontrolle bei der technischen Messung unterschiedlichster Medien, dem Nachweis von Werbewirkung, und der korrekten Anwendung von Analyse-Tools.

     
  6. 6.

    Durch veränderte Geschäftsmodelle, z. B. einer Zunahme von kostenpflichten digitalen Medienangeboten (Paid Content, Streaming-Anbieter wie Sky oder Netflix), wird Nutzerforschung wichtiger als Mediaforschung. Der Mediennutzer der Zukunft wird von den Medienanbietern als individueller Kunde und nicht mehr als weitgehend anonymer Teil eines Massenpublikums angesehen.

     

Bis dahin bleibt die Publikumsforschung durch die vielen Spannungen und gegenläufigen Tendenzen ein schwieriges, aber auch interessantes und anregendes Forschungsfeld.

Literatur

  1. Ansorge, K. (2017). Die Angreifer – Software- und Beratungsunternehmen machen den Werbemarkt zum Haifischbecken. Horizont, 02/2017, 11 (Januar 12).Google Scholar
  2. Arbeitsgemeinschaft Media-Analyse e.V. (2018a). ma Methoden-Steckbriefe. www.agma-mmc.de/service/publikationen/. Zugegriffen am 18.03.2019.
  3. Arbeitsgemeinschaft Media-Analyse e.V. (2018b). Informationen zur ma Plakat. https://www.agma-mmc.de/media-analyse/ma-plakat/. Zugegriffen am 18.03.2019.
  4. Arbeitsgemeinschaft Onlineforschung e.V. (2018). AGOF ändert Grundgesamtheit der daily digital facts auf Erwachsene ab 16 Jahre; auf: https://www.agof.de/pressemitteilung/pressemitteilung-2018-05-16/. Zugegriffen am 18.03.2019.
  5. Bachem, C. (2018). Programmatic, Blockchain und KI im Reality Check. Was können die Trendtechnologien für Marketing und Media leisten? Vortrag auf dem Screenforce Expertenforum am 17. April 2018, Video auf: https://www.screenforce.de/events/expertenforen/expertenforum-archiv/2018/04/16/default-calendar/1.-expertenforum-2018. Zugegriffen am 18.03.2019.
  6. Backhaus, K., Erichson, B., Plinke, W., & Weiber, R. (2015). Multivariate Analysemethoden: Eine anwendungsorientierte Einführung (14. Aufl.). Berlin/Heidelberg: Springer.Google Scholar
  7. Barth, B., Flaig, B., Schäuble, N., & Tautscher, M. (Hrsg.). (2017). Praxis der Sinus-Milieus – Gegenwart und Zukunft eines modernen Gesellschafts- und Zielgruppenmodells. Wiesbaden: Gabler.Google Scholar
  8. Bauer, S. (2018). Europas Shopper richtig verstehen – Welche Informationen die Markt-Media-Studie TGI EUROPA über Konsum, Einstellungen und Mediennutzung liefert. planung & analyse, 2/2018. 40–43.Google Scholar
  9. Bayer, C., & Domenichini, B. (2015). Forschungsinitiative Audioeffekt – Die Wirkung von Radiowerbung messen. Media Perspektiven, (6), 276–281.Google Scholar
  10. Bente, G. (2004). Erfassung und Analyse des Blickverhaltens. In R. Mangold, P. Vorderer & G. Bente (Hrsg.), Lehrbuch der Medienpsychologie (S. 297–324). Göttingen: Hogrefe.Google Scholar
  11. Berndt, R., Fantapié Altobelli, C., & Sander, M. (2016). Internationales Marketing-Management. Wiesbaden.Google Scholar
  12. Bowman, J. (2018). Counting eyeballs in the „media everywhere“ age. Research World (Hrsg. ESOMAR), 2018(69), 22–27. (März/April 2018)Google Scholar
  13. Broadbent, S., & Haarstick, K. (1999). Accountable Advertising – Wie sich Werbung rechnet. Düsseldorf: Econ.Google Scholar
  14. Brügner, H. (2015). Management von Multiscreen-Kampagnen – Grundlagen, Organisation, Roadmap, Checklisten. Wiesbaden: Gabler.Google Scholar
  15. Bruhn, M. (2016). Einsatz der Mediawerbung für die Marketingkommunikation. In M. Buhn, F.-R. Esch & T. Langner (Hrsg.), Handbuch Instrumente der Kommunikation – Grundlagen, Innovative Ansätze, Praktische Umsetzungen (2. Aufl.). Wiesbaden: Gabler.Google Scholar
  16. Buber, R., & Holzmüller, H. (Hrsg.). (2009). Qualitative Marktforschung – Konzepte, Methoden, Analysen. Wiesbaden: Gabler.Google Scholar
  17. Bundesverband Deutscher Zeitungsverleger e.V. (2018). Agentur-Statements zum L-Wert. https://www.die-zeitungen.de/media/planungsdaten/l-wert-kontakte/agentur-statements-zum-l-wert.html. Zugegriffen am 18.03.2019.
  18. Busch, O. (Hrsg.). (2014). Das Realtime-Advertising-Prinzip. In Realtime Advertising: Digitales Marketing in Echtzeit: Strategien, Konzepte und Perspektiven (S. 3–14). Wiesbaden: Gabler.Google Scholar
  19. Busch, O. (Hrsg.). (2015). Realtime advertising: Programmatic advertising – The successful transformation to automated, data-driven marketing in real-time. Wiesbaden: Gabler.Google Scholar
  20. Chaibi, L. (2018). Don’t back down – The future of research … Media & advertising. Research World (Hrsg. ESOMAR), 2018(69), 28–31. (März/April 2018)Google Scholar
  21. Engel, D. (2008). Im Paradies der Marktforschung. Absatzwirtschaft Sonderheft Media & Research, 2008, 56–60.Google Scholar
  22. Engel, D. (2011). Strategie statt Streudienst – Wie datengetriebenes Planning einen Mehrwert in der Mediaplanung schafft. In A. Baetzgen (Hrsg.), Brand Planning – Starke Strategien für Marken und Kampagnen (S. 295–316). Stuttgart: Schäffer-Poeschel.Google Scholar
  23. Engel, D. (2012). Daten werden Mangelware – Kolumne zum Thema Studien. Media Spectrum, 03/2012.Google Scholar
  24. Engel, D. (2017). Langfristigen Werbewirkungen auf der Spur. Media Perspektiven, 10/2017, 524–528.Google Scholar
  25. facit digital. (2009). Kontaktqualität TV vs. Online Video. https://www.united-internet-media.de/uploads/tx_iviteaser/Experiment_VideoAds_vs_TV.pdf. Zugegriffen am 18.03.2019.
  26. Focus Verlag. (2009). Titelseiten-Identifikations-Modell – Premiere ausgabenbezogener Nutzungsdaten. Präsentation. http://www.burdanews.de/media/uploads/projekt/medialine/docs/forschung/researchdays2009_fmv_TIM.pdf. Zugegriffen am 18.03.2019.
  27. Form, K. (2007). Die ökonometrische Zukunft hat gerade erst begonnen. In W. J. Koschnick (Hrsg.), FOCUS Jahrbuch 2007 (S. 355–368). München: Focus.Google Scholar
  28. Fortini-Campbell, L. (2001). Hitting the sweet spot – How consumer Insights can inspire better marketing and advertising. Chicago: The Copy Workshop.Google Scholar
  29. Frey-Vor, G., Siegert, G., & Stiehler, H.-J. (2008). Mediaforschung. Konstanz: UTB.Google Scholar
  30. Gadeib, A (2009). Spurensuche – Marktforschung im Web 2.0. Research & Results, 1/2009, 30.Google Scholar
  31. Gaßner, H.-P. (2011). Der richtige Sender für die Zielgruppe – Radioplanung mit Konsuminformationen. In D. K. Müller & E. Raff (Hrsg.), Praxiswissen Radio – Wie Radio gemacht wird – und wie Radiowerbung anmacht (2. Aufl., S. 117–124). Wiesbaden: Springer.Google Scholar
  32. Gentsch, P. (2017). Künstliche Intelligenz für Sales, Marketing und Service: Mit AI und Bots zu einem Algorithmic Business – Konzepte, Technologien und Best Practices. Wiesbaden: Gabler.Google Scholar
  33. Gerke, T. (2005). Handbuch Werbemedien – Werbeträger optimal vermarkten. Frankfurt a. M: mi-Fachverlag.Google Scholar
  34. Goldberg F., Deisenberg, A.-M., Goldberg, J., & Thäsler, K.-M. (2017) Die digitale Außenwerbung in der Customer Journey. transfer – Werbeforschung & Praxis, 4/2017, 45–53.Google Scholar
  35. Groner, R., Raess, S., & Sury, P. (2008). Usability – Systematische Gestaltung und Optimierung von Benutzerschnittstellen. In B. Batinic & M. Appel (Hrsg.), Medienpsychologie (S. 425–428). Heidelberg: Springer.Google Scholar
  36. Günther, V. (2017). Transparenz in Mikroschritten. Horizontmagazin, 5/2017, 20–22.Google Scholar
  37. Hallemann, M. (2014). Totgesagte leben länger – Zur Qualität von Reichweitenmessungen. Research & Results, 07/2014, 50.Google Scholar
  38. Hanloser, S. (2018). Datenschutz-Grundverordnung und ePrivacy-Verordnung – disruptive Signale aus Brüssel; Vortrag auf dem Screenforce Expertenforum am 17. April 2018, Video auf: https://www.screenforce.de/events/expertenforen/expertenforum-archiv/2018/04/16/default-calendar/1.-expertenforum-2018. Zugegriffen am 18.03.2019.
  39. Hansen, H. (2018). Ein Tag voller Medien – Online-Tool bietet Insights für die strategische Mediaplanung. Research & Results, 2/2018, 54–56.Google Scholar
  40. Hass, B. H., & Willbrandt, K. W. (2011). Targeting von Online-Werbung – Grundlagen, Formen und Herausforderungen. MedienWirtschaft, 1/2011, 12–21.Google Scholar
  41. Hermes, V. (2009). Das Ende der Berichtsbände. absatzwirtschaft Sonderheft 2009, 18–20.Google Scholar
  42. Hess, E.-M. (1996). Die Leser – Konzepte und Methoden der Printforschung. München: Burda Rote Reihe.Google Scholar
  43. Hofsäss, M., & Engel, D. (2003). Praxishandbuch Mediaplanung. Düsseldorf: Cornelsen.Google Scholar
  44. Hölig, S. (2018). Eine meinungsstarke Minderheit als Stimmungsbarometer?! – Über die Persönlichkeitseigenschaften aktiver Twitterer. M&K – Medien & Kommunikation, 02/2018, 140–169.CrossRefGoogle Scholar
  45. Hollerbach-Zenz, K. (2012). Medienwährungen in Deutschland – heute und morgen. MedienWirtschaft, 2/201, 24–32.Google Scholar
  46. Horizont. (2001). Hanseaten sollen Schwaben kontrollieren. Horizont, 44/2001, 50.Google Scholar
  47. Horizont. (2014). Ursache und Wirkung – Nielsen Deutschland will seine Services stärker verknüpfen und Probleme mit der Online-Werbestatistik angehen. Horizont, 06/2014, 30.Google Scholar
  48. Horizont. (2016a). „Falsch gemessen, Geschäft brummt!“. Horizont, 46/2016, 4.Google Scholar
  49. Horizont. (2016b). Erkenntnis in Echtzeit – Mit Presto Realtime verspricht Pilot Media die Optimierung von Werbewirkungsparametern wie Image, Erinnerung und Kaufbereitschaft während des Flights. Horizont, 34/2016, 59.Google Scholar
  50. Horizont. (2016c). Zurück auf Los. Horizontmagazin, 05/2016, 24–26.Google Scholar
  51. Horizont (2017a). Jetzt mal zusammen – Qualitätsinitiative: Verbund legt Leitfaden für die Dokumentation von Werbewirkungsforschung fest. Horizont, 38/2017, 6.Google Scholar
  52. Horizont. (2017b). Digitale Matrix. Horizont, 02/2017, 27.Google Scholar
  53. Horizont. (2018a). Medien stellen Fragen nach Zukunft der MA. Horizont, 5/2018, 1.Google Scholar
  54. Horizont. (2018b). Suche nach Harmonie. Horizont, 13/2018, 28.Google Scholar
  55. Horizont. (2018c). Cool und unglaubwürdig – Wavemaker-Studie prognostiziert dem Influencer Marketing eine Vertrauenskrise. Horizont, 18/2018, 8.Google Scholar
  56. Horizont. (2018d). Onliner verrichten Tagwerk. Horizont, 10/2018, 45.Google Scholar
  57. Horizont. (2018e). Melting pot. Horizont, 10/2018, 34.Google Scholar
  58. Horizont. (2018f). Die AGF im Stresstest. Horizont, 19/2018, 8.Google Scholar
  59. Kappes, C., Krone, J., & Novy, L. (Hrsg.). (2017). Medienwandel kompakt 2014–2016 – Netzveröffentlichungen zu Medienökonomie, Medienpolitik & Journalismus. Wiesbaden: Gabler.Google Scholar
  60. Kiefer, M.-L., & Steininger, C. (2013). Medienökonomik. München/Wien: de Gruyter/Oldenbourg.Google Scholar
  61. Knuth, I. (2013). Do additional services matter? An empirical evaluation of opportunities to grow for media agencies. International Journal of Marketing, 52, 149–159.Google Scholar
  62. Koschnick, W. J. (2003). FOCUS-Lexikon für Werbeplanung, Mediaplanung, Marktforschung, Kommunikationsforschung, Mediaforschung (3 Bd.). München: Focus Verlag.Google Scholar
  63. Koschnick, W. J. (2004a). FOCUS-Lexikon ÖSTERREICH. Werbeplanung – Mediaplanung. Marktforschung, Kommunikationsforschung, Mediaforschung. München: Focus Verlag.Google Scholar
  64. Koschnick, W. J. (2004b). FOCUS-Lexikon SCHWEIZ. Werbeplanung – Mediaplanung. Marktforschung, Kommunikationsforschung, Mediaforschung. München: Focus Verlag.Google Scholar
  65. Krohn, T., & Niesel, M. (2014). Manfed: Medienwährungen. MedienWirtschaft, 3/2014, 22–31.Google Scholar
  66. Krone, J. (Hrsg.). (2009). Fernsehen im Wandel. Mobile TV und IPTV in den Rundfunkmärkten Deutschlands und Österreichs. Baden-Baden: Nomos.Google Scholar
  67. Krupp, M., & Breunig, C. (Hrsg.). (2016). Massenkommunikation IX – Eine Langzeitstudie zur Mediennutzung und Medienbewertung 1964–2015 (Schriftenreihe Media Perspektiven, Bd. 22). Baden-Baden: Nomos.Google Scholar
  68. Kuß, A., Wildner, R., & Kreis, H. (2014). Marktforschung – Grundlagen der Datenerhebung und Datenanalyse. Wiesbaden: Gabler.Google Scholar
  69. Lassalle, O. (2014). Innovation in der Mediaforschung. New Business Sonderheft Nr. Dezember 2014, Hamburg 2015, (S. 16–19).Google Scholar
  70. Löffler, M. (2014). Think Content! – Content-Strategie, Content-Marketing, Texten fürs Web. Bonn: Galileo Computing.Google Scholar
  71. Möhrer, K. (2018). Programmatic Advertising – Perspektiven für die klassischen Medien. Media Perspektive, 2/2018, 50–58.Google Scholar
  72. Nienstedt, H.-W., & Weissner, S. (2009). Prinzipal-Agenten-Konflikte im deutschen Mediamarkt – Eine theoretische und empirische Analyse. MedienWirtschaft 2/2009, (S. 20–29).Google Scholar
  73. Niggemeier, S. (2006). Der Leser, das unbekannte Wesen; au: www.faz.net am 04.04.2006. http://www.faz.net/aktuell/feuilleton/kino/zeitung-der-zukunft-der-leser-das-unbekannte-wesen-1330869.html. Zugegriffen am 18.03.2019.
  74. Nötting, T. (2018). agma veröffentlicht Tagesablaufstudie, auf: w&v online, 22. März 2018 – https://www.wuv.de/medien/agma_veroeffentlicht_tagesablaufstudie. Zugegriffen am 18.03.2019.
  75. Nötting, T. (2018b). Agma, Agof und AGF sollen enger zusammenrücken – Interview mit Axel Pichutta und Andrea Tauber-Koch. w&v, April 2018, S. [wird noch ergänzt].Google Scholar
  76. Paperlein, J. (2016a). Streit um die Vermessung der TV-Welt. planung & analyse, 1/2016, 26–28.Google Scholar
  77. Paperlein, J. (2016b). Qualitätsinitiative statt gemeinsamer Werbewirkungsplattform; auf: HORIZONT.NET 04. Juli 2016 – http://www.horizont.net/medien/nachrichten/Gattunsguebergreifende-Forschung-Qualitaetsinitiative-statt-gemeinsamer-Werbewirkungsplattform-141177. Zugegriffen am 18.03.2019.
  78. Pezoldt, K., & Sattler, B. (2009). Medienmarketing. Stuttgart: UTB.Google Scholar
  79. Rau, H. (2000). Redaktionsmarketing: Journalismus als Planungsfaktor in der Positionierung regionaler Tageszeitungen. Wiesbaden: Deutscher Universitätsverlag.Google Scholar
  80. Sarodnick, F., & Brau, H. (2011). Methoden der Usability Evaluation: wissenschaftliche Grundlagen und praktische Anwendung (2. Aufl.). Bern: Hogrefe.Google Scholar
  81. Schenk, M. (2007). Medienwirkungsforschung (3. Aufl.). Tübingen: Mohr Siebeck.Google Scholar
  82. Schloßbauer, S. (1998). Handbuch der Außenwerbung. Frankfurt a. M.: MD Medien Dienste.Google Scholar
  83. Schmidt, J.-H. (2018). Social media (Medienwissen kompakt, 2. Aufl.). Wiesbaden: Gabler.Google Scholar
  84. Schneider, G. (2017). Aus dem Ruder gelaufen – Das Verhältnis zwischen Leserzahl und Auflage der Zeitschriften klafft immer stärker auseinander. Horizont, 10/2017, 26.Google Scholar
  85. Scholl, A. (2018). Die Befragung (4. Aufl.). Konstanz: UTB.Google Scholar
  86. Schulz, R., & Schneller, J. (2009). Mediaforschung. In E. Noelle-Neumann, W. Schulz & J. Wilke (Hrsg.), Fischer Lexikon Publizistik Massenkommunikation (S. 201–234). Frankfurt a. M: Fischer Taschenbuch.Google Scholar
  87. Screenforce Gattungsmarketing GmbH (Hrsg.). (2017). Screen Life – Aktuelle Befunde aus dem ROI Analyzer. Berlin: Screenforce.Google Scholar
  88. Siegert, G. (1993). Marktmacht Medienforschung: Die Bedeutung der empirischen Medien- und Publikumsforschung im Medienwettbewerbssystem. München: Reinhard Fischer.Google Scholar
  89. SIGMA Gesellschaft für internationale Marktforschung und Beratung mbH. (2018). Die SIGMA Milieu. www.sigma-online.com/de/SIGMA_Milieus/. Zugegriffen am 18.03.2019.
  90. Silver, N. (2013). Die Berechnung der Zukunft: Warum die meisten Prognosen falsch sind und manche trotzdem zutreffen. München: Heyne.Google Scholar
  91. Sterne, J. (2010). Social media metrics – How to measure and optimize your marketing investment. Hoboken: Wiley.Google Scholar
  92. Suckfüll, M. (2004). Ansätze zur Analyse von Wirkungsverläufen. In R. Mangold, P. Vorderer & G. Bente (Hrsg.), Lehrbuch der Medienpsychologie (S. 297–324). Göttingen: Hogrefe.Google Scholar
  93. Tina-Booh, A., & Uhl, S. (2015). Der Mensch im Mittelpunkt der Mediaplanung. Mediaplanung als Experience Planning macht Marken erlebbar. In A. Baetzgen (Hrsg.), Brand Experience – An jedem Touchpoint auf den Punkt begeistern (S. 139–155). Stuttgart: Schäffer-Poeschel.Google Scholar
  94. Turcsanyi, G., & Schützendorf, R. (2012). Werbewirkung und Mediaplanung: Kompendium für die Praxis und Lehre. Baden-Baden: Nomos.Google Scholar
  95. Wendelin, M. (2013). Elisabeth Noelle-Neumann. In M. Meyen & T. Wiedemann (Hrsg.), Biografisches Lexikon der Kommunikationswissenschaft. Köln: Herbert von Halem. http://blexkom.halemverlag.de/elisabeth-noelle-neumann/. Zugegriffen am 18.03.2019.
  96. Wyss, V. (2000). Medienmanagement als Qualitätsmanagement. In M. Karmasin & C. Winter (Hrsg.), Grundlagen des Medienmanagements (S. 149–172). München: UTB.Google Scholar
  97. Young, A. (2010). Brand media strategy – Integrated communications planning in the digital era. New York: Palgrave Macmillan.Google Scholar
  98. ZAW (Hrsg.). (2018a). ZAW-Jahrbuch Werbung 2018. Berlin: ZAW.Google Scholar
  99. ZAW (Hrsg.). (2018b). ZAW-Rahmenschema für Werbeträgeranalysen (9. Aufl.). http://www.zaw.de/zaw/aktuelles/meldungen/Anlagen/ZAW-Rahmenschema_Reader_.pdf. Zugegriffen am 18.03.2019.

Copyright information

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019

Authors and Affiliations

  • Michael Hofsäss
    • 1
    Email author
  • Dirk Engel
    • 2
  • Lena Kellerwessel
    • 3
  1. 1.MH Media & ResearchFrankfurt a. M.Deutschland
  2. 2.Akademie für Marketing-Kommunikation e.V.Frankfurt a. M.Deutschland
  3. 3.Havas Media GermanyFrankfurt a. M.Deutschland

Personalised recommendations