Zusammenfassung
Seit der Mitte der Neunziger Jahre einsetzenden Akzeptanz des Internets als Massenmedium beschäftigen sich Entscheider der Medienwelt intensiv mit der Frage, wie sie dieses neue Medium als Erweiterung oder Ergänzung der eigenen klassischen Medienangebote einsetzen können. Zeitungsverlage, Radiosender, Fernsehsender, Wochenmagazine und selbst Buchverlage sowie die gesamte Musik- und Filmindustrie begannen sich im Internet zu positionieren. Offensichtlich konnte sich niemand den verlockenden Möglichkeiten dieses neuen Mediums entziehen1. In aller Regel wurden gleich vollständig neue Unternehmenseinheiten, Prozesse und Dienste konzipiert und kostenintensiv umgesetzt2. Sieben Jahre später hat sich das Bild nachhaltig verändert und gleichzeitig deutlich an Komplexität gewonnen. Dem klassischen Internet folgte das mobile Internet mit zahlreichen Spielarten von SMS und MMS über WAP bis i-mode per Smart-Phones und PDAs sowie in Kürze mit mobilen Breitbanddiensten per UMTS. Als nächster Entwicklungsschritt steht uns der „Einzug ins Wohnzimmer“ per interaktivem Fernsehen ins Haus. Den einfachen text- und bildbasierten Internetseiten folgten in kurzem Abstand Push-Services, Streaming-Technologien, Breitbandinhalte, interaktive Applikationen und differenzierte Personalisierungsfunktionen. Selbst das — weithin gar für obligatorisch erachtete — kostenlose Internet wird mittlerweile in Frage gestellt und als strategisches Projekt der Kirch Gruppe positioniert werden, „maxdome“ erblickte jedoch niemals das Licht der Welt und wurde angesichts der „langsameren Dynamik“ im Markt für breitbandige Angebote Anfang 2001 wieder eingestellt. und zunehmend durch Content Billing und Digital Rights Management (DRM) um sogenannte „kostenpflichtige Premiumservices“ erweitert3. Gleichzeitig mussten viele Medienunternehmen in der Vergangenheit schmerzhaft erkennen, dass die bestehenden Ansätze zur Nutzung des Internets wirtschaftlich keinesfalls erfolgreich waren und meist kaum mit den eigenen Kernprozessen zur Produktion des „primären Mediums“ verknüpft werden konnten. Verschärfend kam hinzu, dass die außerordentlich hohe Dynamik der technologischen Entwicklung sich als mit Hilfe klassischer Managementmethoden und Produktionsweisen der Medienwirtschaft als nicht beherrschbar erwies.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Preview
Unable to display preview. Download preview PDF.
References
Zweifelsohne fasziniert das Internet noch heute durch globale Ausdehnung, ubiquitäre Verfügbarkeit und nie dagewesene Interaktivität.
Exemplarisch für diesen Trend, seien die pressewirksamen Aktivitäten der Kirch Gruppe angeführt. Mit dem Anspruch, Vorreiter im breitbandigen Internet zu werden, wurde im November 1998 die Kirch New Media AG zur Bündelung sämtlicher Internet-Aktivitäten gegründet. Mit einem geplanten Investitionsbudget in Höhe von ca. 750 Millionen DM sollte unter der Bezeichnung „maxdome“ ein breitbandiges Entertainment-Portal entwickelt
Wer darin gar das Ende des Internets erkennt, verkennt die Tatsache, dass auch in anderen Kontexten noch kein Angebot qualitativ oder quantitativ darunter gelitten hat, dass die Anbieter mit diesen Angeboten attraktive Erlöse erzielen können.
Beispielhaft sei nur auf die gegenwärtig in Einführung befindlichen Dienste wie i-mode, MMS, Interaktives TV und UMTS verwiesen.
Der Begriff „Multi-Touchpoint Kunde“ wurde durch Patricia Seybold von der Patricia Seybold Group geprägt. Vgl. Get Ready for M-Commerce and Interactive TV, Patricia Seybold, http://www.commerce.net/research/technology-applications/2000/00_09_n.pdf.
Man denke nur an die erfolgreichen „interaktiven“ und crossmedialen Formate „Big Brother“ und „Wer wird Millionär“.
Es lohnt sich an dieser Stelle ein Vergleich mit den Konzepten der modernen Automobilindustrie, welche auf dieselben Herausforderungen — Dynamik und Effizienz — mit Lösungsansätzen wie Fließbandproduktion, Arbeitsteilung, Plattformstrategien, Baugruppenverfahren und unternehmensübergreifende Wertschöpfungsketten reagierten.
Die gleichzeitig fast ebenso weit verbreitete Skepsis gegenüber den durch Technologie erreichbaren Rationalisierungseffekten beruht meist auf konkreten negativen Erfahrungen in der Vergangenheit. Oftmals lassen sich diese auf den Einsatz „falscher“ Technologie, einer mangelhaften Grundkonzeption beim Technologieeinsatz oder auf starke Zurückhaltung bei der tatsächlichen Umsetzung der erzielbaren Rationalisierungseffekte zurückführen.
Vgl. Interactive Broadband Media, Nikolaus Mohr, Gerhard P. Thomas, Edition Accenture, August 2001.
Ein Format bezeichnet eine fest definierte Menge an physikalischen, grammatikalischen, syntaktischen und/oder semantischen Regeln, denen die diesem Format zugeordneten Daten entsprechen müssen. Formate dienen hauptsächlich der Definition von Schnittstellen zum Austausch strukturierter Informationen.
Digitale Formate stellen jedoch keinesfalls eine neue Erfindung dar. Mit dem Morse-Alphabet war bereits eines der ersten Formate zur elektronischen Datenübermittlung ein digitales.
Der Term „Bits vs. Atoms“ wurde durch Niclas Negroponte 1995 in einer Kolumne im Internet-Magazin Wired (http://www.wired.com, „Message 19“ vom 1.1.1995) als Leitmotiv für die digitale Informationsgesellschaft eingeführt.
Microsoft wurde und wird vielfach vorgeworfen, mit der regelmäßigen Änderung ihrer proprietären Binärformate bewusst für eine nachhaltige Zementierung ihres Monopols für Textverarbeitungsprogramme zu sorgen. Ein standardisiertes, XML-basiertes Textformat wäre vor diesem Hintergrund eine durchaus wünschenswerte Alternative.
Die Entwicklung von SGML und XML geht auf prinzipielle Überlegungen zur Trennung der Inhalte von den Formatierungen eines Dokuments zurück, die bereits in den späten 60er Jahren unabhängig voneinander durch William Tunnicliffe und Stanley Rice unternommen wurden. Auf Basis dieser konzeptionellen Vorarbeiten entwickelten die IBM-Forscher Charles Goldfarb, Edward Mosher und Raymond Lorie 1969 mit GML (Generalized Markup Language) den direkten Vorgänger des 1983 veröffentlichten SGML-Standards. Den drei Forschern sei gegönnt, dass sie sich mit ihren Initialen in der Bezeichnung ihrer Erfindung verewigen durften.
Für eine umfassende Darstellung vgl. http://www.w3.org/XML/.
HTML ist eine SGML-Anwendung für die Darstellung von Hypertexten. Sie war und ist aufgrund ihrer Einfachheit und allgemeinen Anwendbarkeit ein zentraler Baustein für den Erfolg des Internets. Nachdem der HTML-Standard in den Jahren 1992 bis 1999 einer stürmischen Entwicklung unterlag, ist die aktuelle Version 4 vergleichsweise stabil. Mit XHTML wurde jedoch ein potentieller Nachfolger vorgestellt, der statt auf SGML nun ebenfalls auf XML basiert.
Hierin kann übrigens der wesentliche Grund dafür gesehen werden, dass SGML keine breite Anwendung fand. Während Programmierer bei der Verarbeitung von XML bei Bedarf einfach auf die komplexe Behandlung der zugehörigen DTD verzichten konnten, musste bei der Verarbeitung von SGML immer die komplette Komplexität der DTD-basierten Prüfung und Verarbeitung adressiert werden.
Der Schumpeter’sche Unternehmer und der mit ihm verbundene Prozess der schöpferischen Zerstörung hat es in einer (technologisch induzierten) dynamischen Umwelt weitaus leichter, marktgerechte Innovationen zu schaffen und durchzusetzen. Aus diesem Grund werden auch etablierte Unternehmen als situative Reaktion langfristig nicht um eine nachhaltige Steigerung der eigenen Flexibilität und Innovationskraft herumkommen.
Generell hat sich in der Geschichte der Informationstechnologie gezeigt, dass Daten und Datenstrukturen eine weit höhere Dauerhaftigkeit besitzen als die verarbeitenden Programme. Da somit in den Datenstrukturen die im Zeitablauf aggregierten Werte stecken, sollten erstere mit Bedacht gewählt werden.
Es ist z.B. zu prüfen, ob Jugendschutzbestimmungen greifen oder regionale Beschränkungen bestehen. Klassischerweise werden z.B. die Rechte an internationalen Sportveranstaltungen einzeln pro Land an ein lokales Medienunternehmen verkauft. Weder Satellitenübertragungen noch das Internet machen jedoch an spezifischen Landesgrenzen halt. Es sind zukünftig folglich noch geeignete Verfahren zu entwickeln, um zu entscheiden, welchen Nutzern Zugriff gewährt werden darf.
Der unerwartete (wirtschaftliche) Erfolg von SMS-Diensten und die hohen Abrufzahlen der Websites populärer Fernsehsendungen sind eindrucksvolle Belege für die schwere Prognostizierbarkeit in diesem Kontext. Als Erklärungsansatz könnte zumindest beim SMS-Boom der zugrundeliegende Netzwerkeffekt dienen: Wer eine SMS empfangt wird mit hoher Wahrscheinlichkeit eine SMS als Antwort versenden. Auf diese Weise resultiert die hohe Anschlussfälligkeit eines jeden asynchronen Kommunikationsaktes in einer Nutzungsintensität, die kaum durch den Komfort oder die technische Raffinesse des eigentlichen Dienstes erklärbar sind. WAP-Dienste lassen einen Netzwerkeffekt dagegen vollständig vermissen, was auch als eine der Erklärungen für die Erfolglosigkeit dienen kann.
Das Multi-Touchpoint Szenario wurde durchgängig auf der Basis der CoreMedia Content Application Plattform (CAP) und zahlreichen weiteren Softwaresystemen wie atg Dynamo, Avid Xpress, IBM Media Production Suite (MPS), Media 360, Virage Videologger, Jutel Radioman, Microsoft Streaming Server, Real Streaming Server uvm. implementiert und durch IBM, atg, HP und CoreMedia auf mehreren Fachmessen präsentiert.
Mit dem Erfolg (bzw. für den Erfolg) breitbandiger Internet-Zugänge wurden neue Angebote mit hohem Entertainment Value geschaffen. T-Online Vision, das Breitbandportal von T-Online International, Bravo.de vom Bauer Verlag und Whow.de von Burda Starnetone seien als Beispiele für eine Umsetzung dieses Konzepts auf der skizzierten Plattform genannt.
Mit wap.de hat Bertelsmann BeMobile das Thema Device-übergreifende Personalisierung frühzeitig auf der skizzierten Plattform umgesetzt. Die Nutzer können seit Anfang
über ein Internet-Portal, WAP-fähige Mobiltelefone und PDAs einen durchgängig personalisierten Dienst abrufen und zentral ihre präferierten Bookmarks pflegen. Mit der Konvergenz von PDA und Mobiltelefon entstanden Anfang 2002 weitere Dienste wie O2 XDA, bei dem über ein PDA-Portal sämtliche Dienste des Telefonanbieters zusammengeführt werden. Der Nutzer kann neben dem Zugriff auf das Internet direkt seine Rechnung einsehen, seine Tarife wechseln, die Mailbox konfigurieren und SMS-Nachrichten versenden.
Oft sehr bildlich als „Lean-Back-Mode“ bezeichnet.
Die meisten Breitband-Angebote folgen diesem Trend zur „passiven Konsumierbarkeit“ und nähern sich damit dem TV.
Presseagenturen haben langjährige Erfahrungen in der Konzeption und dem Betrieb effizienter mehrstufiger Content-Veredelungsprozesse. Die dpa und die österreichische APA haben diese Erfahrungen genutzt, um auf der skizzierten Plattform multimediale Nachrichtendienste zu produzieren und automatisiert an eine große Zahl von Wiederverkäufern zu verbreiten.
Stand: April 2002
Im CoreMusic-Szenario wurde das Micro-Payment System von PaySafeCard genutzt. Der Kunde erwirbt gegen Zahlung des jeweiligen Nennbetrags eine Karte, die mit einer eindeutigen Kartennummer versehen ist. Anschließend können bis zum vollständigen Aufbrauchen des Kartenwerts durch einfache Eingabe der Kartennummer anonyme Zahlungen im Internet erfolgen.
Im CoreMusic-Szenario wurden DRM-Systeme von Microsoft, Adobe, IBM und Bertelsmann DWS eingebunden.
Das SWR-Jugendradio DASDING produzierte auf der beschriebenen Plattform auf der CeBIT 2002 ein crossmediales Angebot aus Radio-, TV-und Internet-Dienst.
Gemeinsam mit IBM wurde das dargestellte Szenario vollständig innerhalb von fünf Wochen realisiert und unter der Bezeichnung „Digitale Content Fabrik“ auf der CeBIT
vorgestellt.
Für eine Einführung in die iterative Entwicklung komplexer Multi-Touchpoint Applications vgl. The CoreMedia Process von Content Applications, Martin Pakendorf, in: Infomatik
— Wirtschaft und Wissenschaft in der Network Economy — Visionen und Wirklichkeit, Tagungsband der GI/OCG Jahrestagung 2001, 25.-28. September 2001, Universität Wien.
Author information
Authors and Affiliations
Editor information
Rights and permissions
Copyright information
© 2002 Springer-Verlag Berlin Heidelberg
About this chapter
Cite this chapter
Stamer, S. (2002). Technologie als Enabler für effizientes Cross-Media Publishing. In: Müller-Kalthoff, B. (eds) Cross-Media Management. Springer, Berlin, Heidelberg. https://doi.org/10.1007/978-3-642-56180-1_5
Download citation
DOI: https://doi.org/10.1007/978-3-642-56180-1_5
Publisher Name: Springer, Berlin, Heidelberg
Print ISBN: 978-3-642-62850-4
Online ISBN: 978-3-642-56180-1
eBook Packages: Springer Book Archive