Portalbeitrag

Treiber und Trends bei der IT-Unterstützung cross-medialer Konzepte

Der vorliegende Beitrag soll einen Überblick über die technologischen Treiber und Trends bei der IT-Unterstützung cross-medialer Konzepte vermitteln. Zur Heranführung an diese Trends möchte ich zunächst einmal reflektieren, wo wir angesichts der 4 Schlagworte „Mobile, Local, Targeted und Social" stehen. Anhand dieser Betrachtung will ich dann die wichtigsten Veränderungen sowohl in Bezug auf die Mediennutzung als auch auf die Konsumenten selbst erläutern und darauf aufbauend dann die technologischen Trends heutiger und zukünftiger IT-Systeme im definierten Themenbereich beschreiben.

Unter Content soll in diesem Beitrag die Gesamtheit von Inhalten jeglichen Typs, wie Texten, Bildern, Audio- und Video-Sequenzen, Zeichnungen usw., und deren Kombinationen bzw. Bündelungen verstanden werden, welche elektronisch zur Verfügung stehen. Eine Kommunikationsplattform soll als Schnittstelle zwischen Content-Anbieter und -Rezipienten verstanden werden. Diese soll unabhängig davon sein, ob der Content einzeln oder als Aggregat bzw. als Bündel, zum Beispiel in Medienprodukten, angeboten wird. Das Verteilen von Content, sprich die Distribution, erfolgt über die Kommunikationsplattform. Der Rezipient greift über verschiedene Medienträger, zum Beispiel einem PC über Internet oder einem mobilen Endgerät über Mobilfunk usw., auf diese Kommunikationsplattform zu. Unter dem Begriff Medienträger sollen auch klassische Print-Produkte und dergleichen verstanden werden. Es soll bei dieser Betrachtung keine Rolle spielen, ob der Content oder das Content-Aggregat auf dem Medienträger physisch vor der eigentlichen Nutzung bereits existent ist oder aber erst zur Nutzungszeit vom Content-Anbieter übertragen wird. Cross-Media soll als die Distribution von Content in unterschiedlichen Content-Aggregaten und/oder über mehrere Kommunikationsplattformen und/oder mehrere Medienträger hinweg und damit dem Überschreiten von Mediengrenzen im allgemeinen Sinne verstanden werden. Weitere und genauere Ausführungen zu Begrifflichkeiten können der Literatur, wie zum Beispiel „Brücken über den Medienbruch" von Stefan Schultz aus dem Jahre 2005 entnommen werden.

Cross-mediale Konzepte sollen nachfolgend nicht als bloße Addition bzw. als eigenständiges Nebeneinander von Inhalten in den Medienkanälen und Medienträgern aufgefasst werden, sondern vielmehr als eine sinnhafte Vernetzung von Inhalten zum Erreichen einer definierten Nutz- und Wirkungsweise. Komplementaritäts- (zum Beispiel im Sinne von „Nutzen ergänzend bzw. erweitern") und Enabling-Funktionen (zum Beispiel im Sinne von „Weg bereiten, begleiten bzw. möglich machen") der einzelnen Medienträger müssen dabei die rein additive Wirkung übertreffen. Ein „Enabling"- Medienträger wäre zum Beispiel ein klassischer Print-Produkt-Katalog mit der Aufgabe den Konsumenten zum eigentlichen Kauf-Prozess in den Online-Shop zu bewegen.

Gerade aufgrund dieses Anspruches müssen unterschiedliche Wechselwirkungen zwischen dem Content-Produkt, der Zielgruppe und den zugrunde liegenden strategischen Zielen berücksichtigt werden. Dazugehört unter anderem die Beantwortung von Fragen wie: Welche Medienträger sind für meine heutigen und zukünftigen Zielgruppen relevant oder werden relevant sein? Welche Ansprüche hat mein Medien-Produkt tatsächlich? Ist es ein reines Informationsprodukt mit geringeren Ansprüchen an das Layout, wie zum Beispiel ein Produkt-Informationsblatt, oder ist es ein Kommunikationsprodukt mit hohen Ansprüchen an das Layout, wie zum Beispiel eine Jugendzeitschrift, eine Werbung usw.? Welchen Wert bzw. Nutzen erwartet die Zielgruppe von diesem Medien-Produkt im relevanten Medienträger? Wie muss die damit verbundene Ausgestaltung aussehen? Wie sehen die Verwertungsmodelle des Medien-Produktes bzw. der einzelnen Content-Bestandteile aus?

Bedingt durch die hohen Kosten in der ersten Stufe der Produktion, unabhängig von der Ausbringungsmenge, muss eine Verwertung in der zweiten Stufe, der Aggregation (zum Beispiel als Spezialheft, Modifikation von Qualität, Umfang und Präsentationsform, Individualisierung von Inhalten usw.) und in der dritten Stufe, der Distribution (zum Beispiel als zeitlich versetzte Distribution, Syndikation (Austausch mit anderen Systemen) usw.) erfolgen. Die zur Realisierung notwendigen technischen Implikationen beinhalten dann weitere Fragestellungen, wie zum Beispiel: Wie müssen meine Prozesse, meine System-Komponenten und die Strukturierung meiner Inhalte sein, um in möglichst viele meiner relevanten Ausgabekanäle und Medienträger mit einem möglichst hohen Automatisierungsgrad nutzenoptimiert publizieren zu können?

Es sei an dieser Stelle erwähnt, dass durch die fortgeschrittenen technischen Eigenschaften, Möglichkeiten und Unterschiede der vielen verfügbaren Medienträger das Publizieren nicht nur aufwendiger geworden ist, sondern auch die Erwartungshaltungen beim Rezipienten wesentlich gestiegen sind. Das vollautomatische Publizieren eines einmal erzeugten Inhalts in voneinander unabhängige Medienkanäle bzw. Medienträger genügt meist immer weniger. Ein vollautomatisches Publizieren funktioniert meist nur noch bei reinen Informationsprodukten nach „Telefonbuch-Muster" und nicht bei Kommunikationsprodukten. Ein Kommunikationsprodukt soll dabei als anspruchsvolleres Medienprodukt verstanden werden, dessen Ausgabeform, wie zum Beispiel das Buch, die iPhone-App usw., als „Verpackung" von Content dient und das Layout und die evtl. darin befindlichen Interaktionsmöglichkeiten und darüber erlebten Erfahrungen ebenfalls Nutzwerte schaffen sollen.

 

Wo stehen wir eigentlich?

Hatten wir noch vor ca. 20 Jahren nur „Print" als Ausgabekanal, so wurde mit Aufkommen des Internets und dem Beginn dessen gesellschaftlicher Durchdringung vor etwas mehr als 10 Jahren ein weiterer Ausgabekanal „Online" etabliert. Anfängliche Versuche der klassischen Druck- und Medienbranche diesen Online-Ausgabekanal durch HTML-Exporte aus Publishing-Systemen, wie zum Beispiel QuarkXpress, zu bedienen, haben sich schnell als unzureichend erwiesen. Nicht nur die permanenten Versuche der Branche weitere Ausgabekanäle als ungeliebtes Beiwerk von Print zu bedienen, führte zu der heutigen oftmals katastrophalen Lage, sondern insbesondere die falsche Strategie im Umgang mit diesen disruptiven Innovationen. Ärgerlich ist dies insbesondere, da sich disruptive Innovationen lange ankündigen. Aber dies soll und kann in diesem Beitrag nicht weiter vertieft werden.

Bedingt durch die Metamorphose der klassischen Mobil-Telefone zu Smartphones mit unterschiedlichen Anwendungs- und Kommunikationsfunktionalitäten entwickelte sich dann vor ca. einem halben Jahrzehnt der „Mobile" als weiterer Ausgabekanal. Der endgültig wahrgenommene Durchbruch erfolgte mit Einführung von Apples iPhone, bedingt durch dessen innovative und akzeptable Bedienerführung und der dadurch erreichten positiven User-Experience, sowie den ersten verfügbaren Daten-Internet-Flatrates für mobile Endgeräte. Eine immer weiter fortschreitende Evolution der Endgeräte und deren Funktionalitäten führte zu immer neueren mobilen Endgeräten neben den Smartphones, zu Tablets in unterschiedlichen Display-Größen der Firma Apple, Samsung und vielen anderen, Spielekonsolen, E-Book-Reader, wie zum Beispiel Amazons Kindle usw. Diese immer schneller fortschreitende Entwicklung wird nicht nur bei mobilen Endgeräten sichtbar, sondern auch in anderen Bereichen des täglichen Lebens, wie zum Beispiel im Bereich der PCs, Notebooks, Digital-TV Boxen, Home-Entertainment-Systeme, POS-Systemen usw.

Parallel zu dieser gerätetechnischen Entwicklung schritt die Integration dieser Systeme immer weiter voran. Dies zeigt sich zum Beispiel durch eine immense Kommunikationsvielfalt von mobilen Diensten, wie sie im Mobile Research Guide von Kirchner + Robrecht vom Jahre 2010 angeführt wurden. So finden sich dort unterschiedliche Kommunikations- (zum Beispiel SMS, MMS, Email), Informations- (zum Beispiel News, Börse, Geo-Location), Unterhaltungs- (zum Beispiel TV, Musik, Gaming), Transaktionsprozessdienste (zum Beispiel Payment, Banking, Couponing) und mittlerweile auch Social Services (zum Beispiel Facebook, Twitter, Google+) wieder. Damit einhergehend hat sich auch der mobile Datenverkehr stark erhöht. Auch die optimistischsten Prognosen wurden dabei bei Weitem übertroffen. Des Weiteren erfolgt über die mobilen Endgeräte eine zunehmende Verknüpfung der virtuellen Welt mit der realen Welt durch sogenannte QR-Codes, Augmented Reality-Anwendungen oder die Verknüpfung von Standortdaten zu unterschiedlichen Diensten.

Neben der sehr großen Verbreitung dieser Endgeräte und deren Funktionalitäten kann man sich in diesem Zusammenhang die Frage stellen, was denn die entscheidenden Merkmale mobiler Endgeräte sind, die diese so anziehend für die Medienwirtschaft macht bzw. machen muss? Zu nennen wäre zum einen die Personalisierung: In der Regel ist ein Smartphone über die Mobilfunknummer einer eindeutigen Person zugeordnet. Zum anderen die Mobilität: Die meisten Personen haben es immer dabei und meist ist es auch eingeschaltet und somit erreichbar. Des Weiteren die Lokalisierbarkeit über eingebaute GPS-Empfänger oder aber über Funkzellenabgleich. Diese Lokalisierungsdaten werden mittlerweile nicht nur in sozialen Anwendungen genutzt, sondern führt zu einer wahren Flut von sogenannten „Location-Based-Services"-Geschäftsmodellen. Ein weiterer Punkt ist die Verfügbarkeit einer Vielzahl von Mini-Anwendungen sogenannter App‘s, mit derer Hilfe ein mobiles Endgerät speziell an persönliche Bedürfnisse (Customizing) angepasst werden kann. Die Anzahl der verfügbaren App‘s sowohl für die iPhone-/iPad- als auch für die Android-Welt geht in die Hundert-Tausende.

Zum Überdruss der Medien-Branche entwickelte sich ein weiterer Ausgabekanal - und so will ich diesen auch ganz bewusst bezeichnen: den Social-Media-Kanal. Die wahre Durchdringung unserer Gesellschaften mit sozialen Netzwerken, wie zum Beispiel Facebook und Google+, Micro-Blogging-Diensten, wie zum Beispiel Twitter, hat diesen Social-Media Kanal mittlerweile etabliert. Dabei bilden die angeführten Dienste nur einen Ausschnitt aus dem Gesamt-Spektrum der Social-Software-Anwendungen. Zu diesen zählen auch Anwendungen, wie Wikis, Weblogs, Podcasts, Social Tagging, Social Bookmarking und viele mehr. Diese Social-Software-Anwendungen unterstützen uns bei der menschlichen Kommunikation, Interaktion und Kollaboration. Inhalte, die in diesen Social-Software-Anwendungen erzeugt werden, werden als „Social-Content" bezeichnet. Die speziellen Eigenschaften von Social-Content und dessen Auswirkungen werden nachfolgend noch eine wichtige Rolle spielen.

Mit über 1 Mrd. Nutzern im Bereich sozialer Netzwerke und mit über 500 Mio. Mitgliedern im Bereich der Micro-Blogging-Dienste stellen Facebook und Twitter derzeit noch zwei Macht-Instanzen dar. Die Individualisierungs- und Personalisierungsmöglichkeiten dieser Dienste bieten ungeahnte Möglichkeiten in der Kommunikation, aber auch Gefahren, wie diese auch immer wieder in den öffentlichen Medien diskutiert werden. Eine Kommunikation zum Beispiel in Facebook verläuft dabei wesentlich schneller, unkomplizierter, persönlicher und meist auch authentischer als über klassische Medien. Ein Indiz für die steigende Relevanz dieser sozialen Medien zeigen auch Prognosen, die in diesem Bereich die höchsten Wachstumsraten der Marketing-Ausgaben vorhersagen.

Es sei an dieser Stelle angemerkt, dass wie so oft bei grundlegenden technischen Innovationen, zunächst ein immenser Überhang an Erwartungen („Hype") vorherrscht, der von keiner Technologie erfüllt werden kann. So war es im Bereich Internet, im Bereich Mobile und so wird es auch im Bereich Social-Media sein. Nach dem Abklingen einer Ernüchterungsphase erfolgt dann eine solide Betrachtung vor allem realistischer Nutzenerwartungen und es beginnt der klassische Technologie-Lebenszyklus, in denen sich Internet und Mobile bereits befinden. Social-Media steht meiner Einschätzung nach momentan kurz nach dem „Hype"-Gipfel und vor einer notwendigen Ernüchterungsphase (Stichwort Gartner-Hype-Cycle). Wenn man aufmerksam die Medien verfolgt, dann erscheinen hin und wieder bereits erste enttäuschte Meinungen von Unternehmen. Nichtsdestotrotz hat und wird Social-Media weiter vieles verändern und analog dem Werdegang von Internet und Mobile eine immer größere Rolle in der Medienwelt zukünftig spielen.

Was machte diese Veränderungen im Kontext von Content überhaupt möglich? Zum einen war es die „Demokratisierung" der Content-Erstellung und -Publikation, d. h., jeder hat heute die Möglichkeit selbst Inhalte zu erstellen und auch zu publizieren. Egal ob es sich um das Schreiben von Texten in Blogs oder um Bilder vom Handy oder Videos handelt. Über das Internet können diese Inhalte von jedem publiziert und verbreitet werden. Voraussetzung dafür waren u. a. unterschiedliche Entwicklungen von Technologien und Werkzeuge - pauschal zusammengefasst unter dem Begriff Web 2.0. Was früher in den Händen weniger war, ist heute für nahezu jeden zugänglich oder wie Brian Solis es wunderbar formulierte „Content is the new democracy and we are the people, are ensuring that our voices are heard". Zum anderen war es die Bereitschaft, Inhalte mit anderen zu teilen. Was alles andere als selbstverständlich war und ist. Wir werden nochmals auf diesen Punkt zurückkommen, wenn wir die Veränderung des Konsumentenverhaltens betrachten.

Zur stetigen Zunahme der Ausgabekanäle und -geräte findet auch eine inflationäre Zunahme der Ausgabeformen statt. Neben den existierenden Print-Zeitschriften, -Zeitungen und gedruckten Büchern und Katalogen gibt es mittlerweile auch ihre digitalen Abbilder. Ergänzend gibt es eine Fülle an digitalen Newslettern, Emails, E-Pub-Ausgaben, Readern als iPhone-App‘s oder Android-App‘s, Tweets, Facebook-Fan-Seiten, Social Gaming Ads usw. In einer Studie von PriceWaterhouseCoopers von 2011 wird in Deutschland für 2015 eine Versechsfachung der Anzahl von Tablets auf 12 Mio. prognostiziert, wohingegen sich die Anzahl der E-Reader eher bescheiden auf 2,4 Mio. verdreifachen soll. Interessant ist auch die Verteilung der Umsetzung von Print-Segmenten auf iPad-App‘s: So hat die Umsetzung von Publikumszeitschriften einen Anteil von ca. 49 %, die der Tageszeitungen ca. 38 % und die der Fachzeitschriften ca. 11 %. Als Anmerkung: Im Frühjahr 2011 hat Amazon erstmals in den vergangenen Monaten in den USA mehr E-Bücher für sein Kindle verkauft als gedruckte Buchausgaben. Des Weiteren hat Amazon im Herbst 2011 provokant verkündet: Der Markt brauche eh nur Leser und Autoren, aber keine Verlage mehr - wobei Amazon selbst diese Position dann gerne im Sinne eines Vermittlers ausfüllen würde. Jeder soll sich selbst nun ein Bild machen, wohin die Reise auch im Verlagswesen geht und ich erinnere an den „iTunes"-Effekt der Musik-Industrie und seinen Folgen. Derzeitige Ereignisse im Zeitungsmarkt bestätigen diese Voraussage.

Zusammenfassend kann man sagen, dass wir es mit einer immer weiter fortschreitenden Divergenz auf allen Ebenen der Ausgabe zu tun haben, die je nach Sichtweise und Standpunkt als Umbrüche oder Aufbrüche aufgefasst werden können.

 

Was sind die relevantesten Änderungen bzgl. der Mediennutzung und der Konsumenten?

Die oben angesprochene Vielzahl und Neuerungen von Endgeräten mit ihren mittlerweile hohen verfügbaren Bandbreiten und den damit verbundenen neuen digitalen Inhaltsformen, sowie deren Aktualität, Verfügbarkeit und Interaktionsmöglichkeiten, verändern auch die Art und Weise, wie wir mit diesen Medien umgehen. Diese geänderten Umgangs- und Nutzungsformen bewirken die Schaffung neuer Vermarktungsformen und neuer Geschäftsmodelle. Die Zahlungsbereitschaft für Inhalte hängt dabei aber immer stärker von der Wertigkeit der Inhalte ab. Zwangsabgaben, wie bei den öffentlichen Rechtlichen, und intransparente Kosten-Strukturen werden zunehmend als bedenklich wahrgenommen.

Schätzungen von Microsoft zur Medien-Nutzung gehen von einer signifikanten Steigerung im Bereich von Digital-TV, Gaming, Mobile und Internet aus. Alle anderen Medien werden stagnieren oder verringern sich. Das zeigt sich auch bei verschiedenen Analysen der Werbeausgaben, zum Beispiel in Deutschland: Danach verlieren alle außer Internet und TV. Außerdem zeigt sich eine Tendenz, dass die „klassische" Werbung zunehmend als störend wahrgenommen wird und teilweise sogar kontraproduktiv ist. Man denke an Internet-Portale, deren Nutzung immer wieder durch „einfliegende" überdimensionale Werbeeinblendungen behindert wird und der Nutzer ganz verzweifelt nach einem „Schließen"-Knopf sucht, der aber erst nach einer geraumen Zeit aktiv wird. Diese Tendenz lässt sich auch an der Zunahme von „Verweigerungstechniken", wie zum Beispiel Pop-up Blocker, Digital-Video-Recorder mit automatischem Herausschneiden von Werbeblöcken usw., erkennen.

Natürlich wirken auch das Alter und der Typus eines Nutzers auf seine Mediennutzung ein. So ist der Umgang mit den Neuen Medien eines sogenannten „Digital Native", also jemandem, der mit Internet und Computer bereits aufgewachsen ist, sicherlich ein anderer, wie bei jemandem, der bereits jenseits der 40 ist. Es darf auch nicht verwundern, dass insbesondere bei den heutigen „Digital Natives", die die Konsumenten von Morgen sein werden, nicht nur die größte Nutzeraktivität im Bereich Internet und sozialen Netzwerken besteht, sondern auch viele Medien parallel genutzt werden, wie zum Beispiel die iPad-Nutzung neben dem Schauen von Fernseh-Sendungen. Konsumenten erwarten heute cross-mediale Angebote. Zum Beispiel wollen immer mehr Käufer von Zeitschriften diese nicht nur als Print-Ausgabe, sondern auch digital auf unterschiedlichen Endgeräten lesen bzw. anhören.

Auch die Konsumenten selbst verändern sich. Insbesondere die sozialen Medien haben und werden hier große Veränderungen insbesondere bei Jugendlichen und jungen Erwachsenen und deren Rezipienten-Haltungen bewirken. So bemerkt man die stetige Zunahme eines „sozialen Rauschens". Die „neuen" Konsumenten wollen persönlich angesprochen werden. Das fängt bei Login-Meldungen an und hört aber bei individualisiertem Content noch nicht auf. Sie sind immer tiefer vernetzt und drängen nach Selbstverwirklichung und Individualität auch in der Außendarstellung. In Untersuchungen der Motive bei der aktiven Teilnahme in Blogs steht diese Außendarstellung, verbunden mit einem Streben nach Individualität, und das „Geliebt werden wollen" an oberster Stelle. Sie sind selbstbewusster denn je, sind emanzipiert und bewerten. Die jüngeren politischen Ereignisse in Afrika bezeugen dies eindrucksvoll. Leider ist aber auch durch die immer weiter fortschreitende Beschleunigung des Lebens und die immense Informationsflut, seine Aufmerksamkeitspanne wesentlich geringer geworden. Die nächsten Inhalte sind nur einen Klick weit weg. Und wer viele Blogs zu unterschiedlichen Thematiken analysiert, der erkennt die Leidenschaft und Emotionalität dieser Konsumenten. Auf allen Ebenen will der „neue" Konsument authentisch, also „glaubhaft ehrlich", behandelt werden.

Die „neuen" Konsumenten wollen sich immer mehr autonom mit werthaltigen Inhalten versorgen. Sie gelten als sogenannte Hybrid-User, d. h., sie informieren sich mehrkanalig. So werden im Internet Produkt-Rankings durchsucht, verschiedene Web-Sites von Anbietern über das iPad besucht und Produkt-Beschreibungen gelesen, in Foren oder Blogs Meinungen und Bewertungen zu dem jeweiligen Produkt eingesehen und vielleicht ein Print-Prospekt auf einer Messe mitgenommen. Sie gelten auch als Prosumer, also Konsumenten, die beitragen, die mithelfen, die Inhalte erzeugen. Man sieht dies an der Fülle an Produkt-Bewertungen und Produkt-Beiträgen im Internet. Prognosen sagen auch voraus, dass sich der „neue" Konsument zukünftig nicht mehr in die bisherigen homogenen Zielgruppen einteilen lässt, sondern nur noch in Bedürfnisgruppen, die ein zeitliches Verfallsdatum haben können.

Die obigen Ausführungen und darin beschriebenen Indikatoren sollen keinen vollständigen Gesamtüberblick zur Mediennutzung bzw. zur Veränderung von Konsumenten bieten, sondern sollen einen Eindruck vermitteln, welche wichtigen Veränderungen auf die später beschriebenen technologischen Treiber und Trends einwirken. Zur Vertiefung sei an dieser Stelle auf entsprechende Literatur verwiesen, wie zum Beispiel „Mediennutzung in konvergierenden Medienumgebungen" von U.Hasebrink aus dem Jahre 2007.

 

Was sind die wichtigsten IT-Trends und -Treiber in diesem Kontext?

Einige Anforderungen an die IT-Unterstützung cross-medialer Konzepte werden hier in diesem Beitrag nicht näher betrachtet. Dazu gehören u. a. klassische Redaktions-Komponenten zur Erfassung medienneutraler Inhalte, Workflow-Unterstützung zur Steuerung der Prozesse und der Arbeitsteilung, Kampagnen-Management zur Verwaltung und Steuerung übergeordneter und zielgerichteter medialer Wertschöpfungsketten, Templating-/Rendering-Technologien zur „Verpackung" von Content-Bestandteilen in format- und gerätespezifische Ausgabeformen, Translation-Memory-Systeme zur Koordinierung von Übersetzungsprozessen, Compliance- und Digital-Rights-Management zur Sicherung und Durchsetzung der rechtskonformen Nutzung von Content. Darüber hinaus werden keine neueren Infrastrukturen zum Betrieb von IT-Systemen und -Services, wie zum Beispiel Software-as-a-Service (SaaS) bzw. Application-Service-Providining (ASP) und Cloud-Anwendungen usw., erläutert. Dies geschieht nicht, weil diese nicht als wichtig erachtet werden, sondern vielmehr weil diese bereits in der Vergangenheit zur Genüge in unterschiedlichen Quellen besprochen wurden oder nicht als neuere Trends und Treiber im Kontext cross-medialer Konzepte anzusehen sind. Klassische Basis-Anforderungen werden nur dann als Trend erläuternd aufgeführt, wenn sich durch neuere Entwicklungen spezifische Veränderungen in den Basis-Anforderungen ergeben haben oder diese dadurch eine neue Dynamik erfahren haben. Auf eine tiefere informationstechnische Betrachtung wurde bewusst der Einfachheit in diesem Beitrag verzichtet.

 

Aufbau einer zentralen Engagement-Plattform

Durch das immer weitere Zusammenwachsen von Medienkanälen und die sich immer weiter verbreitenden sozialen Medien wird die Handhabung, Nutzung und Wirkungsweise von Content immer stärker beeinflusst. Wenn eine Kommunikation über Content zukünftig noch wirken soll, so muss nicht nur jede Interaktion einen Wert dem Rezipienten bieten, sondern der Rezipient auch selbst mehr denn je einbezogen werden. Soziale Medien wirken dabei nicht nur als eigenständiger Ausgabekanal, sondern wirken richtig eingesetzt wie ein „Klebstoff" zwischen den übrigen Medienkanälen. Konsumenten erwarten Inhalte bzw. Medienprodukte, die nicht nur von überall her und cross-medial verfügbar sind, sondern den Konsumenten selbst mit einbezieht. R.Levine, C.Locke, D.Searls und D.Weinberger bezeichnen im Cluetrain-Manifest vom Jahre 2000 vereinfacht „Märkte als Konversationen". Konversation heißt Dialog - Dialog heißt Einbeziehen - soziale Medien ermöglichen diesen Dialog besser denn je.

Dieses „Einbeziehen" muss über mehrere Systemgrenzen hinweg durch zentrale Engaging-Plattformen unterstützt werden. Die dabei involvierten Systeme, wie zum Beispiel klassische Produkt-Informations-Management- und Digital-Asset-Management-Systeme als auch Customer-Relationship-Management-Systeme usw., dürfen nicht mehr nur lose mit den eigentlichen Content-Management-Systemen verknüpft werden, sondern müssen wesentlich tiefer, sowohl auf Content- als auch auf Prozessebene, integriert werden. Die Integration und Pflege, sowohl von internen als auch externen Blogs, Foren, Wikis, Media-Sharing-, Social-Tagging- und Bewertungs-Anwendungen usw. muss als selbstverständlich erachtet werden. Daneben werden Plattformen in der Zukunft auch die Verwaltung und Pflege universeller und systemübergreifender Identitäten mit den zugehörigen Social Graphen anbieten müssen. Entsprechende Bestrebungen wie OpenID zeigen hier einen Weg auf.

Viele relevante Systeme im Umfeld von Social-Media werden autark betrieben. Eine dafür notwendige Integration ist demzufolge zwar wesentlich aufwendiger, aber die dafür notwendigen offenen Schnittstellen müssen angeboten und unterstützt werden. Spezielle Connectoren verbinden die Engaging-Plattformen nicht nur mit diesen autark betriebenen sozialen Systemen, sondern bieten auch eine direkte Beteiligung an Diskussionen, Feedbacks, Bewertungen usw., an. Ergänzend müssen unterschiedliche Werkzeuge zur standardisierten Syndikation unterstützt werden. Zudem gibt es eine zunehmende Zahl von spezialisierten Werkzeugen zur Veredelung bzw. Komplettierung von Medienprodukten, wie zum Beispiel Adobe Digital-Publishing-System und dergleichen, die ebenfalls in einem Gesamt-Konstrukt zu berücksichtigen sind. Eine generelle Orientierung an offene Standards, wie zum Beispiel CMIS, JCR, SOA, XML usw., und deren konsequente Nutzung ist geboten.

Ein weiterer Aspekt ist die immer weiter voranschreitende Verbindung von realer und virtueller Welt. Diese Verbindung muss nicht nur in die Wirkungsweise cross-medialer Konzepte mit einbezogen werden, sondern auch durch unterschiedliche Technologien von einer zentralen Engaging-Plattform unterstützt werden. Hierzu gehören zum Beispiel die Versorgung von Augmented-Reality-Anwendungen mit passenden Medieninhalten, QR-Codes zum Abfotografieren von Produkten oder Ähnlichem mit dem Smartphone und dem Abrufen von ergänzenden Inhalten, Geo-Location und der Verknüpfung mit standortbezogenen Inhalten. S.Liewehr und I.Truscott sprechen in ihrem Artikel „Content, Context and Conversation" von 2010 nicht zu Unrecht davon, dass solche Plattformen zur Verbindung von Content mit Menschen und Menschen mit Menschen über den Content dienen müssen. Nicht nur integrierte Collaboration- und Community-Technologien unterstützen dabei dieses Verbinden mit Content, sondern auch unterschiedlichste Benachrichtigungsdienste. Durch diese Benachrichtigungsdienste kann sich der Rezipient bzgl. für ihn relevante Veränderungen oder Neuangebote von Content bzw. Medienprodukten automatisch benachrichtigen lassen.

Diese zentralen Engaging-Plattformen müssen es erlauben, Content-zentrierte Anwendungen und die damit verbundenen Dienste über die Prozess- und Systemgrenzen hinaus zu gestalten und zu betreiben. Mittels integrierter und übergreifender Kampagnen-Management-Werkzeuge muss die konsequente Einbeziehung der Rezipienten und potenziellen Konsumenten strategisch planbar gemacht werden und die Wirkungsweisen von Kampagnen und den dabei involvierten Inhalten und Menschen wesentlich detaillierter durch geeignete Monitoring- und Analyse-Werkzeuge analysiert werden können - dazu weiter unten mehr.

Nur durch eine tiefe Kopplung von Systemen und Prozessen über eine zentrale Engaging-Plattform kann die Vielzahl an Berührungspunkten der Konsumenten und dem zur Verfügung stellen von werthaltigen bzw. Nutzen bringenden Content bzw. Medienprodukten unter dem Anspruch des „Einbeziehens" gehandhabt werden. Viele klassische Content-Management-Systeme werden bzw. wurden teilweise diesbezüglich erweitert, so zum Beispiel Microsoft SharePoint Server 2010, Drupal usw.

 

Kontextualisierung von Content

Die Aussage „Content ist King" trifft zwar nach wie vor zu, jedoch ist mittlerweile klar zu erkennen, dass Content zunehmend nur im und mit dem richtigen Kontext dem Rezipienten ein Optimum an Werthaltigkeit bietet. Kontext bezeichnet hier den Oberbegriff für jede Art von Bezugsrahmen mit einem Mindest-Gehalt an Relevanz und/oder Beziehung. Relevanz entsteht aus etwas Persönlichem, wie zum Beispiel „Ich interessiere mich für Trekking-Reisen nach Nepal", oder aber aus etwas Situativem, wie zum Beispiel „Ich suche einen Ersatz für mein defektes Handy". Eine situative Relevanz ist meist kurzlebiger als eine persönliche Relevanz. Beziehungen sollen hier vereinfacht irgendwie geartete Zusammenhänge definieren.

Die notwendige Voraussetzung zur Kontextualisierung von Content ist dessen Strukturgebung. Deshalb müssen relevante IT-Systeme geeignete Werkzeuge und Verfahren zur Strukturierung von Content zur Verfügung stellen. Struktur definiert dabei die Beziehung von Teilen zu einem Ganzen. Zu den klassischen Beispielen gehört die Einordnung von Content in hierarchische Gruppierungen, in Taxonometrien und in Ontologien oder das Zuweisen von Metadaten bzw. Schlagwörter (sogenannte Tags). Eine solche Strukturierung kann manuell durch einzelne Personen oder aber durch eine Gruppe von Personen (Schwarm-Intelligenz) oder aber automatisiert erfolgen. Gerade neuere Entwicklungen haben die Qualität automatisierter Verfahren wesentlich verbessert und damit deren weitere Verbreitung und Einsatz in IT-Systemen beschleunigt. Als Beispiele für automatisierte Verfahren seien hier Klassifikations-Verfahren und semantische Technologien, welche noch später betrachtet werden, genannt. Wenn wir davon ausgehen, dass Alles Objekte sind, sowohl Personen als auch verschiedenste Inhalte, zum Beispiel Websites, Produkte usw., dann lassen sich diese Objekte, sofern irgendein Zusammenhang zwischen ihnen besteht, in Beziehung setzen. Durch solch eine Kontextualisierung wird es nicht nur ermöglicht, dass Beziehungen zwischen den Inhalten erkannt, sondern auch etwaige Erkenntnisse und Aussagen über die Inhalte selbst gewonnen werden können. Diese Beziehungen und Relevanzen lassen sich durch unterschiedliche IT-Werkzeuge repräsentieren. Dazu gehören zum Beispiel Tag-Clouds, die spezifische Gewichtungen und deren Relevanz zu einem Thema abbilden oder soziale Graphen mit deren Hilfe Beziehungen von Objekten abgebildet werden können usw. Die Kontextualisierung von Content insbesondere durch Social-Content, macht diesen wesentlich werthaltiger und vitaler. Dieses spezielle Anreichern von klassisch strukturiertem Content mit Social-Content gilt als anspruchsvoll, aber gefordert, wie zum Beispiel bei thematischen Tweets, thematischen Youtube-Beiträgen usw.

Für eine optimale Verwertung von Content muss der Content auf Bedarf abhängig der angestrebten Wirkungsweise und des verfügbaren Kontextes für den Konsumenten IT-gestützt zugeschnitten werden können. Eine IT-Unterstützung muss das Erstellen, Pflegen und Darstellen von Kontextualisierungen ermöglichen und für das Handling des damit verbundenen Anwachsens der Datenmenge entsprechende Werkzeuge und Methoden zur Verfügung stellen.

 

Reformierung des Content-Repository und übergreifende Suche

Zur optimalen Verwertung muss Content medienneutral in einem Content-Repository gespeichert werden können. Die unterschiedlichsten Content-Typen, wie Text, Bild, Audio, Video, müssen verwaltbar sein. Außerdem muss es möglich sein, auch eigene Content-Typen, wie zum Beispiel Artikel, Blog-Eintrag usw., als eigenen Content-Typ wiederum bestehend aus unterschiedlichen Content-Typen zu definieren und als Struktur-Pattern abzulegen. Medienneutral bedeutet hier die Trennung von Struktur, Inhalt und Format - völlig unabhängig von einer zukünftigen Wiederverwendung. Für Text-Inhalte werden meist XML- oder objektorientierte Ansätze verwendet. Bilder werden in medienneutralen Farbräumen gespeichert, die groß genug sind, um jedes Ausgabeformat möglichst ohne Verluste abbilden zu können. In Verbindung mit verwalteten Farbprofilen wird die Farbverbindlichkeit von Bildern sichergestellt. Die zu speichernde Granularität von Content wird dabei von der Content-Strategie bestimmt. Sie gibt vor, welche Inhalte in welcher Form und Feinheit in welchen möglichen Bündelungen wiederverwendet werden.

Bei der Betrachtung von Content ging man bisher von einer Strukturiertheit aus, d. h. vereinfacht, die Einordnung von Inhalten in definierte Kategorien, die Abbildung von gegenseitigen Beziehungen sowie die Anreicherung und Speicherung von Metadaten usw. Das Erfassen dieser strukturierten Inhalte erfolgt meist über einen klassischen redaktionellen Workflow oder durch den Import von Content über standardisierte elektronische Katalog- oder spezielle Syndikations-Formate. Metadaten bilden dabei eine wichtige Strukturhilfe. Diese werden auch als „Daten über Daten" bezeichnet und können vereinfacht in inhaltsabhängige und in inhaltsunabhängige Metadaten (zum Beispiel als administrative Zusatzangaben) unterschieden werden. Bei den inhaltsabhängigen Metadaten wird zusätzlich noch zwischen intrinsischen (d. h. konkret inhaltsbeschreibende Metadaten, zum Beispiel treffende Stichworte zum Inhalt) und extrinsischen Metadaten (d. h. zusätzliche Informationen zum Inhalt, die typischerweise als Attribut-Wert-Paar abgebildet werden, zum Beispiel Angaben zum Autor oder der Jahreszahl der Erstellung) unterschieden. Neuere Bestrebungen zielen darauf ab, vorrangig solche intrinsischen Metadaten auch direkt aus dem Content selbst automatisiert zu extrahieren. Dazu gehören zum Beispiel neuere Verfahren im Umfeld des Text-Minings oder intelligente Verfahren zur Analyse von Bildern und deren Farbverteilungen und Muster. Im Text-Mining werden Data-Mining-Methoden auf unstrukturierte Textinhalte in Verbindung mit Verfahren der Sprachverarbeitung zur semantischen Analyse und zur Entdeckung relevanter Zusammenhänge angewendet. Neben der automatischen Extraktion von Informationen können Texte auch klassifiziert und in ähnliche Gruppen eingeteilt (Clustering) werden, sowie Aussagen über Trends und Meinungen in Texten ermittelt werden. Die Verwendungsmöglichkeiten sind unterdessen nicht nur für „klassisch" erstellte Textinhalte interessant, sondern insbesondere auch für Social-Content.

Social-Content genügt dem oben angeführten Strukturiertheits-Anspruch meist nicht. Er ist i. d. R. hoch unstrukturiert, oft grammatikalisch fehlerhaft und nicht durch stringente redaktionelle Workflows erzeugt worden. Social-Content entwickelt sich meist organisch in einem hoch interaktiven Umfeld. Dies wird insbesondere an Blog-Einträgen sichtbar, die wiederum kommentiert werden und diese wiederum kommentiert werden usw. Dabei wird das Erzeugerprinzip im Gegensatz zu den klassischen redaktionellen Workflows völlig umgekehrt. Auch eine Vorgabe von Richtlinien für die Erzeugung dieses Contents erscheint nur in geringem Maße möglich, zum Beispiel durch die Forderung des Anbringens von Tags (Schlagwörtern) oder einfachen expliziten Beschreibungen. Eine verwertungsgerechte Speicherung und dazugehörige Wiederverwendbarkeit ist dementsprechend aufwendig, aber notwendig. Analog gilt dies auch für die oben angesprochenen Kontextualisierungen und deren Beziehungen zu anderen Inhalten.

Die Vorhaltung von Content, unabhängig ob strukturiert oder unstrukturiert, muss derart erfolgen, dass eine nutzenoptimale Verwertung in den Bündelungs- und Distributions-Prozessen möglich ist. Neben dem Aggregieren und Verwalten von Content unterschiedlichster Typen muss die Möglichkeit der Sichtung und Analyse von Auswirkungen und Entwicklungen der Inhalte möglich sein. Dazu müssen IT-Systeme unterschiedliche Werkzeuge zur Erzeugung und Kontrolle von Versionen, Varianten, sowie sonstigen Mikro- und Makrostrukturen („Binnenstrukturen") aggregierter Inhalte usw., anbieten. Des Weiteren müssen die weiter oben beschriebenen Kontextualisierungen gespeichert, gesichtet und bei Bedarf zur Aggregation neuer Medienprodukte abgerufen werden können. Zum Beispiel zur automatisierten Zusammenstellung einzelner Content-Bausteine zu neuen Medienprodukten, welche abhängig eines ermittelten Benutzer- oder Gruppenprofils einen maximalen Nutzwert für die Konsumenten bieten.

Intelligente Such-Mechanismen müssen übergreifend Inhalte und deren Kontextualisierungen auffinden. Dabei sollen gleichwohl strukturierte und unstrukturierte Textinhalte, zum Beispiel durch Volltext- oder Ähnlichkeits-Suchen, sowie das Suchen in unterschiedlichen Content-Typen, wie auch Bildern, Audio- und Video-Sequenzen, unterstützt werden. Da die Erfassung von Metadaten und anderen Struktur-Informationen gerade im Kontext von Social-Content oftmals als nicht möglich bzw. als zu aufwendig erscheint, versucht man mit speziellen Such- und Klassifikationsverfahren diese Lücke zu schließen. Viele dieser Verfahren liefern meist keine exakten Ergebnisse, sondern berechnen einen Ähnlichkeitswert, anhand dessen ein Ranking der gefundenen Objekte erstellt und angezeigt wird. Diese Unschärfe muss bei der Definition des Content-Repository und seinen zugrunde liegenden Strukturen abgewogen und berücksichtigt werden können. Gradmesser ist dabei die geforderte Exaktheit und Richtigkeit in der Wiederverwertbarkeit und in der Suche einzelner Content-Bestandteile.

Zur Erfüllung der obigen Ansprüche müssen die klassischen Content-Repositories grundlegend reformiert werden und notwendige IT-Werkzeuge und Methoden bereitgestellt werden.

 

Unterstützung von Multi-Plattform- und Social-Publishing

Jeder Ausgabekanal und jeder Medienträger besitzt seine spezifischen Eigenschaften und Möglichkeiten, deren Abhängigkeiten und Möglichkeiten eine definierte Rolle innerhalb eines cross-medialen Konzeptes spielen. Generell wird jeder Medienkanal anders konsumiert und die Rezipienten haben bestimmte Erwartungshaltungen an den über diesen Medienträger zugänglichen Content und dessen Aufbereitung und Ausgestaltung. So würden die Rezipienten zum Beispiel bei Inhalten, die über eine iPhone-App verfügbar sind, Interaktionsmöglichkeiten als Basisanforderungen verlangen, während sie dies bei einem Print-Produkt nicht erwarten würden. Das Nicht-Vorhandensein von Basis-Anforderungen führt laut Kano-Modell zwangsläufig zu hoher Kunden-Unzufriedenheit. Inhalte bzw. Medienprodukte müssen deshalb jeweils spezifisch für einen Medienträgertyp und dem angestrebten Nutzenziel aufbereitet werden. Schon eine Wiederverwendung innerhalb eines gleichen Medienkanals kann oft nicht ohne erneute Bearbeitung bzw. Aufbereitung erfolgen. Man denke dabei auch zum Beispiel an die Vielzahl unterschiedlicher mobiler Gerätetypen, mit unterschiedlichen Navigations- und Eingabemöglichkeiten, unterschiedlichen Display-Eigenschaften, wie Auflösungen, Farbtiefen, Größen usw., unterschiedlichen Betriebssystemen, unterschiedlichen Browsern und ihren damit verbundenen Anforderungen bei der Transkodierung von Inhalten auf diese Endgeräte. Zusätzlich verändern sich die medienträger-spezifischen Anforderungen fortlaufend. Neue technische Features wollen so schnell als möglich von den Rezipienten nutzbar sein. Ein weiteres Problem liegt darin begründet, dass es zum Zeitpunkt der Content-Erstellung noch keine ausreichenden Informationen über die Eigenschaften aller relevanten mobilen Geräte gibt. Es kann auch nicht für jedes relevante mobile Gerät vorsorglich der mobile Content adaptiert werden. Deshalb wird das rezipienten-gerechte Publizieren von Content auf diese unterschiedlichen Plattformen zunehmend komplexer. Bedingt durch die spezifischen Erwartungshaltungen an die jeweiligen Medienträger und die angeführten Umstände, ist ein vollautomatisches Distributieren von Inhalten auf die Medienträger oft nur bedingt möglich.

Unter reinen Produktivitätsgesichtspunkten ist jedoch zum einen die möglichst weitest gehend automatische Aufbereitung sowie Distribution von Inhalten bzw. Medienprodukten gefordert und zum anderen eine optionale nachträgliche „Veredelung" notwendig und deshalb in einem IT-gestützten Gesamt-Prozess vorzusehen. Die 2010 produzierte „Wired"-Ausgabe für das iPad, welche mit dem Adobe Digital-Publishing-System produziert wurde, zeigt beispielhaft wie durch einen quasi einfachen „Zusammenbau" von Content-Bestandteilen und mithilfe von IT-Werkzeugen eine beeindruckende Benutzererfahrung (User-Experience) für unterschiedliche mobile Endgeräte ohne (Betonung liegt auf „ohne") Programmierkenntnisse erreicht werden kann. Analog Adobe mit dem Digital-Publishing-System versuchen auch andere Anbieter entsprechende Erweiterungen für ihre Standard-Publishing-Systeme zu implementieren, wie auch zum Beispiel Quark Inc. usw.

Besondere Aufmerksamkeit erfährt momentan das Distributieren von Content in soziale Medien, auch als Social-Publishing bezeichnet. Hierbei werden relevante Inhalte bzw. Medienprodukte in die für die Zielgruppe relevanten sozialen Systeme, wie zum Beispiel auf Facebook-Fanseiten, abhängig des cross-medialen Konzeptes publiziert. Da es sich bei den sozialen Systemen vorrangig um bidirektionale Kanäle handelt, versucht man darauf aufbauende Inhalte, wie zum Beispiel Kommentare, Bewertungen usw., zur Erfolgskontrolle wieder zu extrahieren und zu verwerten - dazu weiter unten mehr. Die sozialen Systeme bieten darüber hinaus eine wesentlich bessere und effizientere Profilierung ihrer Nutzer, welche innerhalb eines cross-medialen Konzeptes genutzt werden sollte.

Eine IT-Unterstützung muss diese Multi-Plattform- und Social-Publishing-Fähigkeiten, sowie die nahtlose Einbindung von IT-Werkzeugen oder -Anwendungen zur spezifischen „Veredelung" von Content für die jeweiligen Ausgabekanäle und Medienträger bieten.

 

Nutzung von User-Generated-Content als Content-Quelle

UGC (User-Generated-Content) steht für Inhalte, welche von einem oder mehreren Nutzern mit Hilfe von Community-Werkzeugen außerhalb der eigentlichen strukturierten Content-Erstellung über redaktionelle Workflows oder über die Syndikation mit Systemen, erstellt wurden. Dazu gehören zum Beispiel Inhalte aus Blogs, Foren, Wikis, sozialen Netzwerken usw. Wie bereits weiter oben angesprochen, verstärkt sich dabei der Trend „weg vom Consumer hin zum Prosumer". Gerade im Kontext von Produkten wird User-generated-Content zunehmend bedeutender für die Meinungsbildung und für Kaufentscheidungen. Experten schätzen, dass sich mittlerweile jeder fünfte Blog mit irgendwelchen Produkten beschäftigt. Die Nutzung von User-Generated-Content als Content-Quelle muss deshalb unterstützt werden.

Zumeist hat dieser User-Generated-Content im Extremfall diejenigen Eigenschaften, wie wir sie bereits im Kapitel „Reforming des Content-Repository und übergreifende Suche" im Kontext von Social-Content beschrieben haben. Die daraus entstehenden Konsequenzen machen dessen medienneutrale strukturierte Speicherung und Kontextualisierung für klassische Content-Management-Systeme schwierig. Deshalb müssen IT-Systeme zur Unterstützung cross-medialer Konzepte geeignete Werkzeuge zur Nutzung, Pflege bzw. Import von User-Generated-Content zur Verfügung stellen. Dies gilt insbesondere auch für Bewertungen, Meinungen, Annotationen und Referenzierungen von Nutzern in Bezug auf klassischen Content oder Medienprodukten. Diese dienen als wichtige Quelle der bereits oben angesprochenen Kontextualisierung und späteren Individualisierung.

Bei der Nutzung von User-Generated-Content müssen die rechtlichen Bestimmungen eingehalten werden. Diese sollen aber in diesem Beitrag nicht weiter erörtert werden.

 

Unterstützung von Individualisierung durch semantische Technologien

Unter Individualisierung wird hier die personalisierte bzw. zielgruppenspezifische Ausgestaltung und Distribution von Content bzw. Medienprodukten verstanden. Die Individualisierung muss dabei konsistent über alle involvierten Medienträger erfolgen. Des Weiteren spielen bei der Individualisierung zunehmend auch regionale Aspekte eine Rolle, wie zum Beispiel angebotene Immobilieninhalte zum regionalen Standort oder dergleichen. Treiber der Individualisierung ist das bedürfnisgerechte Zusammenstellen und Anbieten von Inhalten und die damit verbesserte Wirkungsweise. Zum Beispiel hat die abgestimmte Bewerbung von Produkten oder das abgestimmte Anbieten von Medienprodukten bzw. Medieninhalten, welche den persönlichen Präferenzen entsprechen, eine größere Chance eine Kaufzustimmung zu erlangen als nicht abgestimmte Angebote.

Bei der Individualisierung von Inhalten müssen vereinfacht ausgedrückt folgende Fragestellungen beantwortet werden: Wer ist die Zielperson bzw. die Zielgruppe? Welche Interessen haben diese? Was könnte diese noch interessieren? Welche Inhalte meines Angebotes entsprechen diesen Interessen? Wie baue ich das Angebot der Zielperson bzw. Zielgruppe auf und wie kommuniziere ich dies?

Voraussetzung für eine erfolgreiche Individualisierung ist zunächst das Erlangen von Informationen (Profiling) über die Zielperson bzw. die Zielgruppe selbst und deren Präferenzen. Diese Profildaten müssen durch geeignete Werkzeuge und Verfahren über Systemgrenzen hinweg gesammelt und vorgehalten werden. Zu den klassischen Verfahren gehört zum Beispiel der Selbstaufschrieb in Formularen, das Aufzeichnen des Benutzer- und Klickverhaltens oder von ganzen Konversationen zur späteren Sichtung des Konversationsflusses, regel-basierte Verfahren (Wenn-Dann-Verfahren) oder die Analyse von Social-Taggings usw. Zusätzlich werden immer öfters auch algorithmische Verfahren bzw. sogenannte semantische Technologien verwendet. Semantische Technologien und Dienste, zum Beispiel grundlegende Text-Mining-Verfahren, Opinion-Mining- bzw. Sentimental-Analysis-Verfahren, Semantic Web Services usw., versuchen die Bedeutung von Inhalten in einem persönlichen oder generellen Kontext zu ermitteln, zu bewerten und zu klassifizieren. Text-Mining-Verfahren versuchen dabei mittels statistischer und linguistischer Mittel insbesondere aus unstrukturierten Textinhalten deren Bedeutungen zu extrahieren und so aufzubereiten, dass deren Sinn einfach zu erschließen ist und in Beziehung mit anderen Inhalten gesetzt werden kann. Opinion-Mining- bzw. Sentimental-Analysis-Verfahren versuchen Stimmungen und Meinungen in ebenfalls meist unstrukturierten Textinhalten tendenziell zu bestimmen und ebenfalls zu klassifizieren, zum Beispiel, ob ein Produkt eher gefällt oder eher missfällt. Mittels Semantic-Web Services, wie zum Beispiel Open Calais, Zemanta, BeyCoo, DBpedia usw., können Inhalte automatisch thematisch analysiert und getaggt werden, d. h. inhaltsrelevante Schlagworte können automatisch zugeordnet werden. Diese können wiederum als Metadaten, zur Kontextualisierung, zum Aufbau von Semantic-Web Ontologien als auch zur Verbesserung des Auffindens von Inhalten genutzt werden. Die einzelnen Verfahren unterscheiden sich meist in Aufwand und Genauigkeit und sind bei deren Einsatz zu berücksichtigen.

Eine zielführende Individualisierung bedingt nicht nur das Verständnis des Individuums und dessen Verhalten, sondern auch dessen persönliche Situation, welche sich vorrangig aus sozialen Inhalten ableiten lässt. Gerade im Hinblick auf die vielen persönlichen Informationen und die große Verfügbarkeit von User-Generated-Content in sozialen Netzwerken werden semantische Technologien dort vermehrt eingesetzt. Hinzu kommen Verfahren zur Analyse und Verwertung der bereits angesprochenen Personalisierungs- und Lokalisierungseigenschaften bestimmter Medienträger selbst, zum Beispiel das Zuordnen von mobilen Endgeräten über die Mobilfunknummer zu einer Person sowie deren Lokalisierbarkeit über Ortungsmechanismen. Parallel kann durch Content-Targeting einer Zielperson bzw. einer Zielgruppe der für sie wichtigen Content gekennzeichnet und vermerkt werden. Durch dieses Verfahren können Erkenntnisse und Schlussfolgerungen für bestimmte Personentypen (Personas) abgeleitet und nachfolgend innerhalb eines Individualisierungsprozesses zusätzlich verwertet werden.

Die Beantwortung der zwei letzten Fragen zur Eruierung und Anpassung eines geeigneten Angebotes setzt voraus, dass Content in einer dafür angemessenen bereits erläuterten Strukturiertheit und damit Verwertbarkeit vorliegt. Die dafür nötige IT-Unterstützung wurde bereits weiter oben erläutert.

Die geeignete IT-Unterstützung für eine gewünschte Individualisierungs-Strategie innerhalb eines cross-medialen Konzeptes muss die dafür geeignete Verfahren handhabbar zur Verfügung stellen.

 

Nahtlose Verzahnung von Content und Commerce

Bereits in dem Beitrag „Technologie als Enabler für effizientes Cross-Media Publishing" von S. Stammer im Buch „Cross-Media Management" von B. Müller-Kalthoff im Jahre 2002, wurde die Verbindung von Content mit Transaktion gefordert. Dieser Trend hat sich weiter verstärkt. Heute heißt die Forderung, dass Kommunikation und Commerce nicht mehr voneinander getrennt betrachtet werden dürfen. Commerce steht hier für die Vorbereitung und Abwicklung von Geschäftstransaktionen. Wenn man Inhalte als Grundlage von Konversationen und Konversation als eine wichtige Grundlage einer wirkungsvolleren Kommunikation versteht, dann ist Content auch als die notwendige Voraussetzung für einen wirkungsvollen Kaufprozess und dem begleitenden Kauferlebnis zu verstehen. Durch kontext-genauen Content lassen sich deshalb nicht nur die Kaufprozesse und Kauferlebnisse verbessern, sondern auch zahlreiche andere Optimierungen erreichen, wie zum Beispiel schnellere Verkäufe oder sicherere Verkäufe im Sinne reduzierter Retouren. Gerade soziale Inhalte, wie zum Beispiel Bewertungen, Empfehlungen oder Referenzierungen tragen dazu einen immer wichtigeren Anteil bei. Dies zeigt sich in unterschiedlichen Commerce-Ausprägungen und Abwandlungen, wie zum Beispiel Social Commerce-Systeme, Shop Blogs, Clubshopping, Liveshopping usw. Es wird ersichtlich, wie wichtig die nahtlose Verzahnung von Content und Commerce ist. Dies gilt in ähnlicher Weise für kostenpflichtige Medieninhalte.

Zur Verwirklichung der Verbindung von Content und Commerce können unterschiedliche IT-Systeme und -Werkzeuge dienen. Dazu gehören zum Beispiel eingebundene Bestellformular-Verfahren, geeignete Micro-Payment-Verfahren, komplette Shop-Systeme, integrierte Content-Billing-Systeme, Einbindung eigenständiger AppStores sowie eine notwendige rechtliche Verwendungssicherung durch ergänzende Digital-Rights-Management-Systeme. Die eingesetzten Werkzeuge und Systeme müssen dabei die Durchgängigkeit der notwendigen Prozesse sicherstellen. Zu diesen Prozessen gehört zum Beispiel die Prüfung der Kreditwürdigkeit, die Prüfung der Datenvollständigkeit, die Abwicklung des Bezahlvorganges sowie das Anstoßen der Bereitstellung des bezahlten Contents.

Zur nahtlosen Integration müssen die dafür notwendigen Schnittstellen in einer Content-Plattform bereitgestellt werden. Die Schnittstellen müssen nicht nur einen systemübergreifenden Datenaustausch sicherstellen, sondern auch systemübergreifende Prozesse und Transaktionen über die unterschiedlichen Berührungspunkte hinweg mit dem Konsumenten ermöglichen. Daneben sind die konsistente Ansprache, die gebotene Transparenz, die Einheitlichkeit über alle zu verwendenden Endgeräte hinweg sowie die intuitive Bedienung, wichtige Anforderungen.

 

Effizienterer Einsatz von Monitoring und Analytics

Bedingt durch die gegebenen Veränderungen muss das IT-gestützte Monitoring und Analytics fester Bestandteil jeden cross-medialen Konzeptes sein. Grundvoraussetzung ist hierfür, dass die angestrebten Konzept-Ziele operationalisiert werden, d. h., Konzept-Ziele müssen in messbare, planbare und überschaubare Ziele umgesetzt werden. Durch zyklisches Messen, Analysieren und Optimieren, meist unter Vorgabe definierter Kennzahlen, muss das Erreichen dieser operationalisierten Ziele geprüft werden. Dabei auftretende Abweichungen müssen eruiert, die Ursachen und Schwachstellen ermittelt, sowie Gegen-Maßnahmen eingeleitet werden. Das notwendige Beobachten und Kontrollieren von Wert-Veränderungen ist hierbei als fortwährender Prozess anzusehen.

Beim Monitoring geht es um das fortwährende zeitnahe Erfassen, Sichten und Überwachen unterschiedlich relevanter Daten an den unterschiedlichen Berührungspunkten von Inhalten und Nutzern. Dazu gehören u. a. Zugriffszahlen, Lokalitäten über Kartenübersichten, Dauer von Nutzungen, Besuchertreue, Abruf von Content-Inhalten, Sichtung und Verfolgen von Nutzer-Aktionen, Performance-Verhalten, Conversion-Rates usw. Zum Einsatz kommen nicht nur serverbasierte Hilfsmittel, wie zum Beispiel die Logfile-Analyse, die Analyse von Netzwerk-Protokollen usw., sondern auch clientseitige Hilfsmittel, wie zum Beispiel das Einbinden von 1-Pixel-Grafiken oder Javascript-Tags in Webseiten sowie das Auswerten von Cookie-Inhalten. Die verfügbaren IT-gestützten Werkzeuge sind innerhalb der jeweiligen Strategie abzuwägen und einzusetzen.

Die sogenannte Analytics, welche zum einen verschiedentlich bezeichnet wird und zum anderen immer mehr mit dem Monitoring verschmilzt, versucht durch Analyse gesichteter Daten Schlussfolgerungen und Handlungsempfehlungen abzuleiten. Dazu werden nicht nur algorithmische und statistische Verfahren genutzt, wie das Auswerten von A/B-Splittests, die zum Beispiel zwei unterschiedliche Web-Seiten, Emails usw., direkt statistisch vergleicht und die Erfolgreichere als Schlussfolgerung weiterempfiehlt, sondern auch Daten in Bezug zu Grenzwerten gesetzt, wie zum Beispiel Key-Performance-Indikatoren (KPI) mit deren Hilfe Grenzwertüber- bzw. -unterschreitungen erfasst und beurteilt werden können.

Neben diesen gängigen Erhebungen werden zunehmend auch die Auswirkungen und Entwicklungen von Stimmungen, Meinungen und Bewertungen gesichtet und analysiert. Dazu gehören insbesondere auch Verhaltensmuster, wie zum Beispiel das Identifizieren und der Umgang mit klickstarken Bereichen durch Nutzer, die Abläufe beim Ausfüllen von Formularen oder beim Befüllen von Warenkörben, das Verfolgen von Klickpfaden von Nutzers beginnend bei den Einstiegsseiten, das Abbruchverhalten von Nutzern usw. Als Werkzeuge werden nicht nur interne, wie zum Beispiel Daten-Logger usw., genutzt, sondern auch externe Werkzeuge integriert, wie zum Beispiel eTracker, WebTrekk, Google Analytics usw.

Hinsichtlich Social-Content spielt das sogenannte Social-Media-Monitoring eine immer größere Rolle. Social-Media-Monitoring ermöglicht dabei das Beobachten und Analysieren von unstrukturierten Inhalten, wie sie in sozialen Medien erzeugt bzw. weiterentwickelt werden. Vorrangig werden dabei Meinungen und Stimmungen zu Inhalten, Personen, Marken und Produkten eruiert, klassifiziert und daraus Schlussfolgerungen gezogen oder Aktivitäten initiiert. Betrachtungsgegenstände sind u. a. die generellen Aktivitäten, Konversationen und Standorte der Nutzer, die Analyse von Trends zum Beispiel zu aktuelle Themen, die Identifikation der Eigenschaften der Nutzer, wie zum Beispiel Alter, Geschlecht, soziale Stellung usw., und deren Funktionen als eventuelle Lead-User, Meinungsbildner usw. innerhalb einer Community sowie die Analyse von Stimmungen und Meinungen in Bezug auf unterschiedliche Kontexte. Zum Einsatz kommen die bereits weiter oben erläuterten semantischen Technologien bzw. unterschiedliche Text-Mining-Verfahren.

Zur Repräsentation der Ergebnisse werden oft sogenannte Dashboards eingesetzt, die in einer Gesamt-Übersicht bestimmte Datenzusammenhänge mittels verständlicher Grafiken und Ampel-Darstellungen zusammenfassen und damit deren Komplexität reduzieren. Über persönliche Einstellungen lassen sich Schwerpunkte bei der Darstellung der Ergebnisse präferieren.

 

Fazit und Ausblick

Unabhängig dieser Treiber und Trends kann Technologie immer nur eine Komponente zur erfolgreichen Umsetzung cross-medialer Konzepte sein. Daneben sind Komponenten wie Prozesse, Organisation, Produktdefinition und vor allem die dafür notwendige Unternehmenskultur innerhalb einer Gesamtstrategie zu berücksichtigen. Da sich viele technologische Innovationen, wie bereits erwähnt disruptiv aus der Perspektive der Medien-Industrie verhalten, kommt dem Aspekt Unternehmenskultur und dem Produktbegriff „Content" besondere Bedeutung zu. Wie schwierig der Umgang damit ist, zeigt die seit Jahren sich zuspitzende schwierige Situation in der klassischen Druck-, Medien- und Verlagsindustrie. Aber gerade die Integration dieses neuen Kanals „Social-Media" in eine Cross-Media- oder Multichannel-Strategie hat viel mit der Bereitschaft der Abgabe von Kontrolle an den Konsumenten zu tun. Dies ist meiner Meinung nach zu aller erst eine unternehmenskulturelle Herausforderung und erst dann eine technologische bzw. prozessorientierte Herausforderung. Dies gilt nicht nur für die Medienindustrie, sondern auch für die klassische Industrie und den Handel.

Eine geeignete Auswahl einer IT-Unterstützung wird durch eine sehr große Fragmentierung der Content-Systeme und -Werkzeuge erschwert. Es gibt Web-Content-Management-Systeme, Enterprise-Content-Management-Systeme, Cross-Media-Publishing-Systeme, Produkt-Informations-Management-Systeme, Brand-Management-Systeme, Database-Publishing-Systeme, Katalog-Management-Systeme, Web2Print-Systeme, Digital-Asset-Management-Systeme usw. Eine exakte technische Abgrenzung ist nicht immer möglich, da die einzelnen Systemarten oft auch überschneidende Komponenten beinhalten. Neben Digital-Asset-Management Komponenten sind oft auch redaktionelle Komponenten in vielen Systemarten vorhanden. Enterprise-Content-Management-Systeme geben sogar vor, rein theoretisch, alles abzudecken. Ob ein optimal passendes System von der Stange (Out-of-the-Box) oder aus den besten verfügbaren Komponenten zusammengesetzt sein muss (Best-of-Breed), hängt sehr stark von den Anforderungen und von der technischen, organisatorischen und finanziellen Machbarkeit ab. Zweifellos muss aber die Anschaffung und Einführung solcher Komponenten und Systeme als anspruchsvolles Projekt verstanden werden. Eine notwendige, wenn auch nicht hinreichende Bedingung für den Erfolg solcher Projekte, ist sicherlich die qualifizierte Anforderungsanalyse samt Dokumentation.

Die weiter oben angeführten Trends und Treiber werden natürlich zwangsläufig auch Auswirkungen auf klassische Content-Management-Systeme haben. So werden reine Content-Management-Systeme zu Nischen-Produkten verkommen. Zukünftige Content-Management-Systeme werden sich zu Social-Publishing Systemen entwickeln oder erweitern müssen. Beispiele dafür gibt es bereits im Markt, wie zum Beispiel Microsoft SharePoint Server 2010, Drupal, CoreMedia usw. Diese Trends werden sowohl im kommerziellen als auch im OpenSource-Markt zu einer weiteren Konsolidierungs-Phase führen.

Bei diesem Beitrag handelt es sich um die Vertiefung einer Arbeit mit dem Titel „Trends bei der IT-Unterstützung cross-medialer Konzepte", die in der Fachzeitschrift „MedienWirtschaft" (www.medienwirtschaft-online.de) Ausgabe 01/2012 veröffentlicht wurde.

 



Autoren

Name:
Prof. Dr.-Ing. Oliver Kretzschmar  Elektronische Visitenkarte
Forschungsgebiet:
IT-Produktmanagement und Product-Analytics für Software und Services im Kontext des maschinellen Lernens, Strategische Startup Entwicklung im Kontext des maschinellen Lernens, Strategische Business-Case- und Projekt-Entwicklung im Kontext von KI/ML
Funktion:
Studiendekan Computer Science and Media (Master)
Lehrgebiet:
IT-Produkt-Management von Software und Services im Kontext des maschinellen Lernens, Digital Analytics im Kontext des maschinellen Lernens, R for Machine Learning, Agiles und klassisches IT-Projekt-Management
Studiengang:
Computer Science and Media (Master)
Fakultät:
Fakultät Druck und Medien
Raum:
320, Nobelstraße 10 (Hörsaalbau)
Telefon:
0711 8923-2168
Oliver Kretzschmar

Eingetragen von

Name:
Prof. Dr.-Ing. Oliver Kretzschmar  Elektronische Visitenkarte


Mehr zu diesem Autor