20031215 \  Artikel \  Enterprise Content Management
Enterprise Content Management
MAM  Media Asset Management
Dritter und letzter Teil eines Whitepapers von Dr. Ulrich Kampffmeyer, Geschäftsführer und Chef-Berater der PROJECT CONSULT Unternehmensberatung. Teil 1 und 2 erschienen in den vorangegangenen Ausgaben 20021021 und 20031117 des Newsletters.
Inzwischen taucht mit MAM Media Asset Management oder DAM Digital Asset Management die nächste Gruppe von Akronymen auf. In der Finanzwelt bezeichnet das Asset Management die Vermögenswertverwaltung. Das Media Asset Management versucht die Vermögenswerte, die Medieninformationsobjekte für ein Unternehmen darstellen, zu verwalten und zur optimalen Nutzung zur Verfügung zu stellen. Ziel des Media Asset Managements ist, ein effektives und effizientes Management von multimedialen Informationen zu ermöglichen und dadurch einen wirtschaftlichen Nutzen und Wettbewerbsvorteile zu erzielen. Media Asset Management kann als Weiterentwicklung des klassischen Content Management-Begriffes betrachtet werden.
Definition „Media Asset“
Ein Media Asset ist grundsätzlich eine Form von Content. Content ist Information in strukturierter, schwach strukturierter und unstrukturierter Form, die in elektronischen Systemen zur Nutzung bereitgestellt wird. Ein Media Asset besteht zum einen aus multimedialen unstrukturierten Informationsobjekten wie Bildern, Grafiken, Präsentationen oder Rich-Media-Inhalten wie Audio und Video, zum anderen aus strukturierten Metainformationen. Durch das Hinzufügen der strukturierten Metadaten wird aus einem Medieninformationsobjekt, welches lediglich Informationen darstellt, ein „wertbehaftetes Asset“, welches verfügbar, recherchierbar, wiederverwendbar und kommerziell handelbar wird. Die strukturierten Metadaten beinhalten beispielsweise Informationen zum Autor, zu Urheberrechten, Erstellungsdatum und Formatinformationen sowie Informationen zum Farbmanagement und Inhaltsbeschreibungen.
Auch ECM Enterprise Content Management und KM Knowledge Management können von den Fähigkeiten eines MAM profitieren. Wissen ist im Unternehmen auch in Media Assets enthalten und kann mit Hilfe der Metadaten der multimedialen Informationsobjekte aus dem MAM lokalisiert werden.
Doch wie grenzt sich das Media Asset Management zum herkömmlichen CM Content Management ab? Der Unterschied zum Content Management ist auf den ersten Blick kaum zu erkennen. Grundsätzlich können mit einem CMS Content-Management-System die gleichen Informationsobjekte verwaltet werden wie mit einem Media-Asset-Management-System (MAMS).
Definition „MAMS  Media Asset Management System“
Ein Media Asset Management System verwaltet beliebige Inhalte über Metadaten und Datenbanken.Ein MAMS kontrolliert Zugriffe und Nutzung. In Verbindung mit Digital Rights Management und Accounting Systemen erlaubt es die kommerzielle Nutzung der Inhalte.Media Asset Management Systeme sind auf hohe Skalierbarkeit zur Speicherung sehr großer Datenmengen ausgelegt.Ein MAMS auf die Konvertierung der Inhalte eingerichtet, um den gespeicherten Content in unterschiedlichen Formaten für die Online-Nutzung und die Distribution zur Verfügung zu stellen.Media Asset Management Systeme verwalten nicht nur elektronisch vorliegende Informationen sondern können auch als Referenzsystem für physisch vorliegende Objekte mitgenutzt werden. Dies erlaubt eine einheitliche, medientypunabhängige Verwaltung von Assets.
In der Medienbranche wird Content Management als „Unterabteilung“ von Media Asset Management gesehen, wobei den CMS-Lösungen häufig Funktionen wie „Watermarks“, „Digital Rights Management“, „eBilling“, „Digital Video Channeling“, „User Profiling“, „Distributed High Performance Asset Reposi-tories“ und viele andere fehlen. Dagegen gibt es kaum echte MAM-Produkte – viele der Lösungen sind individuell für einen Media-Assets-Anbieter „zusammengeschraubt worden“.
Das Media Asset Management sorgt für die Aufnahme, Speicherung, Kategorisierung, Indizierung und Bereitstellung von Media Assets mit der Prämisse, eine hohe Bearbeitungsgeschwindigkeit und eine optimale Wiederverwendung zu ermöglichen. Zu der Grundausstattung eines MAM zählen Funktionen wie Verschlagwortung und Indizierung, Mechanismen zur Datensicherheit und Zugriffskontrolle, medienspezifisches Datenmanagement wie Farbmanagement und medienneutrale Formate, komplexe Suchfunktionen über Metadaten sowie automatische Bildinhaltserkennung, Unterstützung des Workflows bei der Medienproduktion, Versionsmanagement und Verwaltung sowie das Management von Urheberrechten, digitale Signaturen, Wasserzeichen und Lizenzen. Multi-Media Clearing Right Systems (MMCRS) und Digital Rights Management (DRM) stellen für MAMS derzeit eine der größten technologischen Herausforderungen dar. Auch das elektronische Abrechnen von Kleinbeträgen (Micropayment) für die Nutzung von Inhalten ist nicht durchgängig realisiert und befindet sich auf einem temporären Rückzug. Ein weiterer integraler Bestandteil ist das „CrossMedia-Publishing“ des MAM. Mit dieser Eigenschaft kann ein MAM-System gleichen Inhalt über unterschiedliche technische Kanäle publizieren. Nach dem Motto „Create once, use many“ können beispielsweise die Bereiche Druck, Internet und Multimedia mit gleichem Inhalt aus dem MAM bedient werden. Unter gleichen Gesichtspunkten ist auch Content Syndication, die mehrfache Nutzung von Inhalten auf verschiedenen Anbieterseiten mit unterschiedlicher Visualisierung und Informationszusammenstellung zu sehen. Voraussetzung ist die Speicherung der Inhalte in medienneutralen Formaten, aus denen für die unterschiedlichsten Anwendungszwecke die benötigten Formate automatisch generiert werden können.
Die gravierenden Unterschiede bestehen in der technischen Umsetzung. Das Enterprise Content Management ist aus dem Dokumenten Management heraus entstanden. Letzteres ist für den Zweck geschaffen worden, den juristischen und geschäftsprozessrelevanten Dokumentenbestand eines Unternehmens verwalten zu können. Ein ECM-System soll inzwischen auch den gesetzlichen Anforderungen wie Aufbewahrungsfristen, Unverfälschbarkeit und Revisionssicherheit gerecht werden, obwohl dies bei WCM Web-Content-Management-Lösungen noch zu wünschen übrig lässt. Das Media Asset Management kommt dagegen aus dem Bereich der Medien-Unternehmen und ist aus dem Bedürfnis heraus entstanden, den Wert des Unternehmens in Form von Texten, Grafiken, Bildern und „Rich-Formats“ verwalten zu können und zentral, dezentral verfügbar zu machen.
Ständige Verfügbarkeit und kommerzielle Nutzbarmachung der Informationsobjekte stehen bei einem MAMS an erster Stelle. Aus diesem Grund unterscheiden sich häufig heute noch DMS, CMS und MAMS auch auf technischer Ebene. Anders als bei einem MAMS wird ein herkömmliches DMS in der Regel mit einer Referenzdatenbank realisiert, die im Index Referenzen der Informationsobjekte speichert. CMS-Lösungen arbeiten zum Teil noch auf Filesystemen, verlinkten HTML-Seiten, Referenzdatenbanken oder aber schon objektorientiert mit XML-Strukturen. Das MAMS dagegen speichert die Informationsobjekte häufig direkt in spezialisierten Datenbanken, welche auch eine höhere Performance in Bezug auf die Verfügbarkeit mit sich bringen. Um die Verfügbarkeit auch bei stark frequentierten Systemen garantieren zu können, werden im MAMS Informationsobjekte auch redundant gehalten.  Beim DMS und CMS wird dies nach Möglichkeit aus Konsistenz-, Zugriffsschutz- und Verwaltungsgründen vermieden.
Media Asset Management verfolgt zwei wesentliche Ziele. Zum einen wird die Verfügbarkeit von Informationsobjekten in einem Unternehmen und über deren Grenzen hinweg optimiert, denn das Vorhandensein von Media Assets bedeutet noch lange nicht, dass diese auch verfügbar und auffindbar sind. Mit einem Media Asset Management werden durch die Bereitstellung von intelligenten Suchfunktionen und die Eingrenzung durch Schlagwörter, Kategorisierung und Versionsmanagement Suchzeiten minimiert, welches eine erhebliche Kostenersparnis mit sich bringt. Zum anderen können Kosten im Bereich der Herstellung und Datenaustausch minimiert werden, da dank der medienneutralen Datenhaltung und der damit verbundenen medienübergreifenden Publikation eines Media-Asset-Management-Systems eine konsequente Wieder- und Mehrfachverwendung betrieben werden kann.
Die MAM Systeme sind aus der Medienwelt heraus generiert oder von diesen Unternehmen selbst entwickelt worden und haben mittlerweile Produktreife erreicht. Langfristig wird die Abgrenzung von MAMS und CMS immer schwieriger werden, da sie sich eher aus technischer Sicht als auf Grund der Funktionalität unterscheiden lassen. Gerade in diesem Punkt werden sich die Produkte immer weiter annähern. In nicht ferner Zukunft werden beide derzeitig noch unabhängigen Varianten zusammenfinden. Hierfür ist seitens der Web Content Management und der Enterprise Content Management Anbieter aber noch einiges zu tun.
Die zunehmende Verbreitung von MAMS ist als wichtiger Trend zu werten. Besonders da diese Systeme auch neue Benutzergruppen ansprechen. DMS und Intranets dienten nur zur verbesserten Informationsbereitstellung innerhalb von Unternehmen, CMS und Portale eröffneten den Weg in Extranets und B2B-Geschäfte. Nur wenige B2C-Geschäftsideen haben sich inzwischen auch wirtschaftlich rentiert. MAMS zielen jedoch nicht nur auf den geschäftsmäßigen Informationsnutzer sondern besonders auch auf den privaten Endverbraucher. Damit sind MAMS ganz vorne an der technologischen Front dabei – Fernseher und mobile Telefone als Endgeräte, innovative Formen der Benutzeroberflächen und Informationsformate, neue Techniken der Nutzungskontrolle und Abrechnung von elektronischen Dienstleistungen.
ECM und XML – ein ideales Paar?
Eine wesentliche Komponente von offenen Content Management Lösungen wird die Nutzung von standardisierten Schnittstellen und Dokument-Beschreibungssprachen sein. Hier kommt zukünftig XML eine besondere Bedeutung zu.
Inzwischen hat beinahe jeder von dem Schlagwort XML (eXtensible Markup Language) gehört. Was sich aber hinter diesem Begriff tatsächlich verbirgt wissen nur die wenigsten. XML hat denselben Ursprung wie HTML (Hypertext Markup Language). Beide sind von SGML (Standard Generalized Markup Language) abgeleitet. All diese Beschreibungssprachen haben den eigentlichen Zweck, die Strukturierung und Kennzeichnung von Inhaltselementen in Form von Text zu beschreiben. Zuerst wurde SGML entwickelt. Dies zeigte sich aber im Umgang als zu komplex, um damit den Internetauftritt zu bewerkstelligen. In SGML können mit den zugehörigen DTD’s (Document Type Definition) individuelle Dokumenten- und Datentypen mit dem Ziel definiert werden, so beschriebene Dokumente auf den unterschiedlichsten Systemen anzuzeigen und einzelne Inhaltskomponenten weiter nutzen zu können. Speziell für die Internetpräsentation wurde hieraus HTML standardisiert. HTML bildet dabei ein Subset von SGML, bei dem auf die individuelle Nutzung der DTD’s verzichtet wurde. Es existiert somit nur eine kleine Zahl vordefinierter DTD-Typen.
Bild 1: XML - getrennte Nutzung von Inhalt, Metadaten, Struktur und Layout
Schnell hat sich herausgestellt, dass HTML für die zukünftige Nutzung nicht ausreichen wird. Anstatt vordefinierte Typen zu nutzen, werden Designanweisungen den einzelnen Abschnitten individuell zugefügt und somit wird heute meistens die Beschreibung der Dokumentenstruktur vernachlässigt. HTML dient daher heute weniger der Beschreibung der Dokumentenstruktur, als der Programmierung des Dokumentenlayouts. Auch XML stellt ein Subset von SGML dar. Allerdings, im Unterschied zu HTML, mit der Möglichkeit DTD’s benutzen zu können. Auf diese Weise können individuelle Dokumentenstrukturen dargestellt und ausgewertet werden. Diese Dokumentenstrukturen werden in XML hierarchisch hinterlegt. Dieses birgt vielfältige Anwendungsmöglichkeiten, da Informationen plattformunabhängig zwischen den unterschiedlichsten Systemen ausgetauscht werden können. Dokumente tragen die Informationen, wo welches Detail zu finden ist, in sich selbst. Dieses ist der Grund dafür, dass XML im E-Commerce-Bereich immer mehr an Bedeutung gewinnt. Hier wird genauso der Geschäftsverkehr zwischen Unternehmen und Endkunden, als auch zwischen Geschäftspartnern angesprochen. Dabei zeigt sich allerdings auch schnell, dass XML kein Allheilmittel für die plattformunabhängige Distribution und Verwertung von Informationen sein kann. XML lässt sich zur Zeit nur für strukturierte Dokumente anwenden, womit derzeit der relativ große Anteil an unstrukturierten und schwach strukturierten Dokumenten noch keine Berücksichtigung findet. Dennoch wird XML im Augenblick häufig im Zusammenhang mit Knowledge Management, Content Management, Portaltechniken und Directory Services als Basistechnologie erwähnt.
Im Content Management bietet XML die Möglichkeit, Dokumenteninhalte bis auf die kleinsten Inhaltskomponenten aufzubrechen und ihren logischen Zusammenhang anhand einer Baumstruktur zu hinterlegen. Ähnlich sieht dieses für das Knowledge Management aus. Im Groben wird Knowledge Management als die Aufbereitung der vorhandenen Informationen anhand der Organisationsstruktur definiert. Eben diese Organisationsstruktur kann in einem Directory Service abgelegt sein. Zur Kommunikation mit mehreren verschiedenen Directory Services wird XML, bzw. das daraus abgeleitete DSML (Directory Service Markup Language), zur neutralen Beschreibung der hinterlegten Daten benutzt, womit man relativ unabhängig von den vorhandenen Datenmodellen arbeiten kann. Eine Konsolidierung der oben genannten Begriffe kann zusammenfassend mit zukünftigen Portalen beschreiben werden. In diesen Portalen werden benutzerspezifische Informationen anhand der Organisationsstruktur und weiteren Ordnungskriterien aufbereitet. Solche Konzepte werden in Zukunft nicht ohne XML auskommen.
Aufgrund der Möglichkeit beliebige Dokumenttypen mit XML anhand der DTD’s beschreiben zu können, hat sich eine Eigendynamik in der Entwicklung problemspezifischen Subsets von XML entwickelt. Genau in diesem Umfeld taucht wieder einmal ein altbekanntes Problem auf: Fast alle bekannten und weniger bekannten Unternehmen, die sich mit dem Themengebiet XML auseinandersetzen, haben sich in der OASIS (Organization for the Advancement of Structured Information Standards) zusammengeschlossen.. Eine Sonderstellung nimmt hier wieder mal Microsoft ein. Microsoft ist nicht Mitglied der OASIS und versucht im XML-Umfeld eigene Wege zu gehen, indem XML mit proprietären Erweiterungen versehen wird. Dieses ist nicht weiter verwunderlich, weil Microsoft nicht daran interessiert sein kann, für den Daten- und Dokumentenaustausch völlige Plattformunabhängigkeit zu erreichen, was der eigentliche Anspruch von XML ist.
 
Bild 2: XML als Basistechnologie für Content Management
Zusammenfassend wird immer deutlicher, dass XML eine Basistechnologie der Zukunft sein wird. Welche Subsets und Derivate sich aber durchsetzen werden, kann aber im Augenblick nicht vorhergesagt werden. Insbesondere bleibt abzuwarten, ob die Möglichkeiten von XML genutzt werden können, um auch weniger gut strukturierte Informationen fassen zu können. Dies wird eine der wesentlichen Voraussetzungen für die Nutzung von XML in Content Management Systemen sein.
Ausblick
In den 80er Jahren wurde ein Mangel an Information postuliert, der Entscheidungen beeinträchtigt. Das Blatt hat sich gewendet: seit den 90er Jahren gilt es aus der Flut von Information die entscheidungsrelevante herauszufiltern. Auf dem Weg zum papierlosen Büro sehen wir uns einer Schwemme von Information gegenüber, die mit Enterprise Content Management Lösungen gebändigt werden muss.
Die Informationsflut: Wir ertrinken in Information und dürsten nach Wissen
Dieser Ausspruch von John Naisbitt aus seinem Buch „,Megatrends“ zeigt deutlich, wo wir heute stehen: „Drowned by the Flood“. Zunächst würde man beim Begriff Flut heute hier an Katastrophen an der Elbe, am Yangtse oder am Ganges denken. Mit einer anderen Flut muss sich derzeit jeder Anwender eines E-Mail-Postkorbes auseinandersetzen. Die Geschwindigkeit, mit der Informationen elektronisch erstellt und verteilt werden, steigt exponentiell. Inzwischen ist das Problem der Überführung von Papier in elektronische Systeme fast nachrangig geworden. Diese Sturmflut der Informationen trifft auf Lösungen, die für die Erschließung, Verwaltung und Bereitstellung von großen Datenmengen kaum vorbereitet sind – auf hierarchische Dateimanager, E-Mail-Postkörbe, verlinkte URL-Strukturen. Zwar bieten elektronische Content-, Dokumenten-, Records-, Media-Asset- und Archiv-Management-Systeme notwendige Komponenten an. Jedoch gehören diese noch lange nicht zur Basisausstattung der IT-Infrastruktur. Sie fristen vielfach noch als Insellösungen ihr Dasein.
Der Wert von Information, die Abhängigkeit von der ständigen Verfügbarkeit von Information und die einfache Erschließbarkeit strukturierter wie auch unstrukturierter Information sind immer noch nicht überall erkannt. Dokumenten-Technologien haben häufig noch einen nachgeordneten, „Nice-to-Have“-Stellenwert. Es wird gern über Wissensmanagement philosophiert – vor einigen Jahren hätte man auch noch die Meinung vertreten können, man habe zu wenig Information – inzwischen haben sich aber die Fronten gedreht. Der Anwender erstickt in Information. Die Ermittlung der richtigen Information in der richtigen Qualität schluckt immer mehr Zeit. Auch die Idee des Internets als öffentlich zugänglicher globaler, universeller Informationsspeicher wird zunehmend in Frage gestellt – strukturierte, qualitätsgesicherte, zielgerichtete Informationssammlungen, Verzeichnisse und Datenbanken sind wieder auf dem Vormarsch. Die Anwender stellen sich sogar wieder darauf ein, dass Information nicht mehr kostenfrei ist, sondern in Abhängigkeit ihres Wertes bezahlt werden muss.
Einerseits ertrinken wir in Information, andererseits treten die ersten digitalen Überlieferungslücken auf. Solange nur irgendwelche Websites für immer verschwinden, war man bereit, dieses in Kauf zu nehmen. Anders ist dies bei wirtschaftlich, wissenschaftlich, rechtlich oder aber historisch wichtigen Informationen. Allein auf Grund von Technologie- und Format-Lücken sehen die End-70er und Anfangs-80er heute schon sehr düster aus. Auch wenn uns die Systeme ständig nach dem Moore`schen Gesetz steigende Kapazitäten bereitstellen werden, so kommt die Bewahrung von Information und die effiziente Verwaltung bereits heute nicht mehr hinterher.
Information Overload, Information Gap und Information Divide
Die organisatorische Dimension, die Frage der Bewertung und die Abhängigkeit von der Verfügbarkeit werden eher komplexer und aufwendiger denn einfacher. Wir können auch nicht mehr einfach „STOP“ sagen und uns zurücklehnen – eine Nichtbeteiligung an der informations- und telekommunikationstechnologischen Entwicklung würde uns schnell ins „Aus“ bringen. So erleben wir gegenwärtig quasi gleichzeitig eine „Information Divide“, ein sich öffnendes „Information Gap“ und einen „Information Overflow“. Dokumenten-Technologien müssen endlich ihren Platz in globalen, nationalen, regionalen, unternehmensweiten und individuellen Sphären finden. Die Informationsflut macht auch nicht mehr vor dem Privatmann halt. Moderne Dokumenten-Technologie-Lösungen müssen daher nicht mehr nur auf den sogenannten professionellen Benutzer im Büro, sondern auch auf Privatleute und Menschen, die wenig mit IT zu tun haben, zugeschnitten werden. Das Problem der Bewältigung der Informationsflut zieht damit immer größere Kreise und hat leider den Nachteil, dass die einmal überschwemmten Gebiete nie wieder freigegeben werden.
Die Vision des papierlosen Büros
Die Vision der automatisierten Vorgangsbearbeitung, bei der alle Papier- und elektronischen Dokumente auf dem Bildschirm präsentiert werden, ist eines der großen Ziele der Informations- und Telekommunikationsindustrie. Diese Vision vom „papierlosen Büro“ habe ich immer als überzogen empfunden, denn eigentlich gehöre ich zu den Verfechtern der „harmloseren“ Variante des „papierarmen Büros“. Anonyme Zitate wie „das papierlose Büro wird es genauso wenig geben wie das papierlose Klo“ (Entschuldigung!) waren indirekt das Leitmotto der seriösen Vertreter der Document-Related-Technologies-Branche. Allerdings kann man das Eine ebenso wie das Andere nicht verallgemeinern. Wir müssen uns sogar damit abfinden, dass es noch schlimmer kommt – das menschenleere Büro, das nur noch in der virtuellen Welt der Software existiert. Hierbei geht es aber nicht um den Telearbeitsplatz, sondern um die Übernahme von immer Aufgaben der täglichen Arbeit mit Information durch die Software selbst.
Unsere Arbeitswelt hat sich verändert – Papier ist heute nur eine mögliche Repräsentation von mit elektronischer Unterstützung erstellten Inhalten. Briefe werden mit Textverarbeitungen getippt oder von Hostsystemen als Massenaussendung automatisch generiert. Nur zur Sicherheit nimmt mancher Vortragender noch einen Folienausdruck seiner elektronischen Präsentation mit. Daten werden nicht manuell addiert sondern in Spreadsheets erfasst und verarbeitet. Nach den ersten mühsamen Anläufen Ende der 80er Jahre findet jetzt auch die Handschrift ihren Weg in das multimediale Pad-Note-E-Book. Diplomanden trainieren inzwischen die Verfassung handschriftlicher Texte, um in ihren mehrstündigen Examensklausuren nicht mit Handkrämpfen zu versagen. Selbst die herkömmliche Tastatur des Computers ist bedroht, wenn man die Entwicklung der Spracheingabe und die Virtuosität der Kids bei der Verfassung von SMS-Texten mit gerade mal 12 Tasten blind unter der Schulbank verfolgt. Elektronische Informationen sind auf dem Vormarsch und es gibt zunehmend Dokumente, die nicht mehr für eine physische Repräsentation in Papier ausgelegt sind – personalisierter Content, der nach Belieben in unterschiedlichen Layouts dargestellt wird, oder elektronisch signierte Dokumente, die nur in der virtuellen Softwarewelt gültig sind. Die Anpassung von Gesetzen in den letzten 2 Jahren hat ihr Übriges dazu beigetragen, elektronische Dokumente als rechtskräftig anzuerkennen und die Papierform vielerorts überflüssig zu machen.
Dies alles nährt die Version vom papierlosen Büro.
Es ist klar, dass das Arbeiten mit Papier, verstreut auf einem Schreibtisch, übersichtlich geordnet, mit Markern und Notizen versehen, anders funktioniert als die sequentielle Darstellung von Images auf einem meist zu kleinen Bildschirm. Auch zwei Seiten gleichzeitig nebeneinander darzustellen kann nicht das taktile Gefühl des Wühlens in Papier, des schnellen Zugriffs nach der Erinnerung, das Vermitteln einer Übersicht, ersetzen. Deshalb wird es meines Erachtens zukünftig eine Vierteilung geben:
   
 ·
Das „papierreiche Büro“ des intellektuellen Denkers, der die EDV nur als Unterstützung für die Niederlegung von Ergebnissen und zur Kommunikation benutzt.
 ·
Das „papierarme Büro“ des Knowledge Workers, der in beiden Welten lebt und sich mit dem Medienbruch arrangiert hat, für den die elektronische Welt die Hauptwissensquelle und Arbeitsplattform darstellt, der aber die Welt des Papiers zur eigenen Arbeitsorganisation benötigt.
 ·
Das „papierlose Büro“ des Sachbearbeiters in einer Vorgangsbearbeitung mit früher Erfassung von Dokumenten, dem das digitalisierte Papier zusammen mit Informationen aus anderen elektronischen Quellen zusammenhängend präsentiert wird.
 ·
Das „elektronische Büro“, das „menschenlose“ Büro, in dem der Mensch von den Prozessen und der Bearbeitung ausgeschlossen ist, bei dem sich Programme miteinander unterhalten und Geschäfte vollautomatisiert abwickeln, wo der Mensch vielleicht noch für Entscheidungen, Prüfungen und Korrekturen eingreift.
Beim letzteren kann man nicht mehr vom „Büro“ im herkömmlichen Sinne sprechen. In der virtuellen Welt des E-Business und E-Commerce tritt der Mensch noch als möglicher Initiator oder Empfänger auf. Die Bearbeitung von Dokumenten und die Durchführung von Prozessen übernimmt die Software, heute noch vordefiniert und programmiert, in Zukunft sogar die Gewohnheiten des Initiators und Empfängers beobachtend, eigene Regeln bildend und selbstlernend. Heute ist das „papierlose Büro“ vielerorts noch Vision, in manchen Unternehmen und in einzelnen Prozessen hat die Zukunft aber schon begonnen. Ob dies human, sozial und gesellschaftlich verträglich ist, müssen die nächsten Jahre zeigen.
Die Abhängigkeit von Information wächst
In Herstellerpräsentationen von neuen Softwaresystemen werden immer die Vorteile, die einfach zu bedienenden Oberflächen, der Nutzen für eine schnellere und medienbruchfreie Bearbeitung von Informationen, usw. in den Vordergrund gerückt. Die potentiellen Anwender denken an neue Funktionalität, an die Steigerung des Durchsatzes in der Antragsbearbeitung, bessere Integration, medienbruchfreie Bereitstellung von Informationen in elektronischen Akten, intelligent unterstützende Vorgangsbearbeitungslösungen, Einsparung von Räumen und vieles mehr.
Eines wird jedoch häufig übersehen und wird mancherorts erst bemerkt, wenn die Systeme einmal stehen. In dem Maße wie wir auf die Nutzung elektronischer Systeme setzen, sind wir von ihrer ständigen Verfügbarkeit abhängig. Dies kann bereits existentiell bedrohend sein. Beim letzten größeren Erdbeben in Kalifornien haben ca. 10% der betroffenen Firmen die Wiederaufnahme des Geschäftsbetriebes nicht hinbekommen – nicht etwa weil Lagerhallen eingestürzt waren – nein, weil sie ihre DV- und Datenhaltungssysteme nicht rechtzeitig wieder in Betrieb nehmen konnten.
Jeder Bank ist hinlänglich bekannt, was passiert, wenn die operativen Systeme ein paar Tage oder gar mehr als eine Woche still stehen, wenn der Zahlungsverkehr nicht mehr abgewickelt werden kann, wenn der Broker keine elektronischen Order mehr platziert, wenn Bewegungs- und Stammdaten korrupt werden ... das Geschäft kommt sehr schnell zum Erliegen. Die Mitarbeiter kann man noch eine Zeitlang mit der übergangsweisen Arbeit mit Papier beschäftigen – aber, was wenn man sich entschlossen hat, ein elektronisches System mit früher Erfassung und anschließender Vernichtung aller Papierunterlagen zu installieren? Wenn beide Systeme nicht mehr laufen, kommt die produktive Arbeit innerhalb weniger Stunden zum Erliegen. Steht eines der Systeme, dann entsteht ein Medienbruch, der langwieriges Nachführen und Konsolidieren nach sich zieht.
Rechenzentren in größeren Betrieben und Verbünden haben das Problem der Datensicherung und Hochverfügbarkeit im Griff - redundante Systemauslegungen, automatisierte Sicherungen, regelmäßige Überprüfung der Systeme. Also warum denn Panik? Die Frage ist, gilt dies auch für Dokumente in den Archiven, Daten im Workflow, der unabhängig von der führenden operativen Anwendung läuft, für die Massen von E-Mails, für die Inhalte der Portale?
Unternehmen, Behörden und die Gesellschaft sind von der ständigen Verfügbarkeit elektronischer Information inzwischen existentiell abhängig. Die Sicherung und Bewahrung von elektronischen Werten ist unter dem Gesichtspunkt dieser Abhängigkeit äußerst ernst zu nehmen. Die Verfügbarkeit von Informationen in ECM-Lösungen ist inzwischen als genauso kritisch anzusehen wie die in den traditionellen Legacy-Systemen. Ein Hauch des Erkennens zuckte in den Köpfen der Entscheider beim Anblick der Millionen Dokumente, die nine/eleven durch die Straßen New Yorks wehten. Für eine kurze Zeit war dann „Desaster Recovery“ eines der brandheißen Themen auf Kongressen und in Publikationen. An dieser Diskussion hat sich auch die Document-Related-Technologies-Branche mit konkreten Lösungsszenarien beteiligt. Doch die Erinnerung schwindet beim Menschen schnell. Alle redeten von Sicherheit, umgesetzt wurde aber wenig. Dabei bieten gerade ECM-Lösungen mit auslagerbaren Medien, von denen einfach und billig Sicherheitskopien gefertigt werden können, die Möglichkeit digitalisiertes Papier und originär elektronische Information kontrolliert in beliebiger Menge bereitzustellen.
Jedes Unternehmen muss bei der Einführung einer ECM-Lösung sich Klarheit darüber verschaffen, in welche Abhängigkeit es sich begibt. Leider fehlen meistens in Konzepten zur Einführung Risiko-Analysen und Fall-Back-Strategien. Ganz zu schweigen, dass es in kaum einem Unternehmen eine „Records Management Policy“ gibt, die den Umgang mit aufbewahrenswerter Information und die Kriterien der Sicherung der Verfügbarkeit beschreibt. Dabei müssen es nicht einmal Katastrophen sein, die Informationsverfügbarkeit beeinträchtigen. Auch Nachlässigkeit z.B. beim regelmäßigen Überprüfen der Lesbarkeit von Medien oder bei der Planung von Systemwechseln kann zu irreparablen Informationsverlusten führen. So sind z.B. heute die Magnetbänder der NASA-Mars-Expeditionen nicht mehr auswertbar. Ein unersätzlicher wissenschaftlicher und monetärer Verlust.
Wir müssen uns zunehmend darauf einrichten, dass auch intentionell Angriffe auf unsere Informationen durchgeführt werden. Das derzeitige Hacking von Websites ist dabei nur ein kleiner Vorgeschmack zukünftiger Herausforderungen. Auch die Stillegung des gesamten Internets für ein paar Stunden lässt sich gerade eben noch verkraften. Wenn jedoch die entscheidenden Informationsbestände vernichtet oder verändert werden, wird aus dem Traum des Informationszeitalters ein lang anhaltendes Trauma.
Die Bewahrer der digitalen Überlieferung
ECM-Lösungen müssen daher nicht nur an der vordersten Front der technologischen Entwicklung „mitspielen“, sie müssen die Gewähr bieten, dass der Wert der Information durch gesicherte langfristige Verfügbarkeit, Nutzbarkeit und Authentizität erhalten bleibt. Die Anbieter müssen Lösungen entwickeln, die die Abhängigkeit von der Verfügbarkeit der gespeicherten Informationen auf ein Mindestmaß reduzieren. Dies ist auch eine Chance für die Anbieter, ein neues eigenständiges Profil zu entwickeln – als „Bewahrer der digitalen Überlieferung“.
Fazit: nicht warten, loslegen !
Dokumenten-Technologien wie ECM Enterprise Content Management sind die Ergänzung zur herkömmlichen Datenverarbeitung. Sie führen strukturierte, schwach-strukturierte und unstrukturierte Information zusammen. Jedes Unternehmen, jede Behörde, jede Organisation muss sich heute mit dem Thema auseinandersetzen. Auch wenn man nicht vorhat, selbst kurzfristig ein System einzuführen, muss man sich mit dem beschäftigen, was man quasi mitgeliefert bekommt – beim nächsten Update der Serverlizenzen, in der nächsten Office-Suite, beim nächsten Datenbank- oder ERP-Upgrade. In vielen Unternehmen mit heterogener IT-Landschaft ist bereits heute die Frage wichtiger, welche redundante Funktionalität vorhandener Produkte man nicht einsetzt, als die Frage, ob man sich ein neues Softwaresystem zusätzlich leistet. Die wichtigste Aufgabe ist, die Informationen im Haus unter Kontrolle zu halten. Aktuelle Fragen: wo lässt man die Abertausenden von E-Mails, was tue ich mit elektronisch signierten Handelsbriefen, wo lasse ich meine steuerrelevanten Daten, wie überführe ich Informationen aus dem unorganisierten Filesystem, wie konsolidiere ich Informationen in einem gemeinsam nutzbaren Repository, wie bekomme ich einen Single-Login über alle meine Systeme hin, wie erstelle ich einen einheitlichen Posteingangskorb für alle eingehende Information, wie kontrolliere ich, dass keine Information verloren geht oder nicht bearbeitet wird, usw. usw. Bei allen diesen Fragen spielen Dokumenten-Technologien eine wichtige Rolle. ECM-Lösungen sind notwendige Basiskomponenten für viele Anwendungen.
Jeder potentielle Anwender wird natürlich seine individuellen Anforderungen prüfen. Entscheidungen zu vertagen, ist jedoch nicht sinnvoll. Es wird jedes Jahr etwas Neues, vermeintlich besseres, komfortableres geben. Mit dieser Einstellung wird man jedoch nie etwas installieren. Mit jeder Vertagung einer Entscheidung wächst der Berg unkontrollierter und ungenutzter Information – erkannte Probleme werden meistens größer. Bei einer vernünftigen langfristigen Migrationsplanung verliert auch der schnelle technologische Wechsel bei Produkten seinen Schrecken. Dokumenten-Technologien sind in ihren Grundfunktionen ausgereift. Die meisten Produkte sind verlässlich, stabil, sicher und zunehmend sogar preiswert. In manchen Branchen entscheidet der Einsatz von Dokumenten-Technologien inzwischen über die Wettbewerbsfähigkeit. ECM Enterprise Content Management gehört heute in jede moderne IT-Infrastruktur.
© PROJECT CONSULT Unternehmensberatung GmbH 1999 - 2016 persistente URL: http://newsletter.pc.qumram-demo.ch/Content.aspx?DOC_UNID=88a334fe4a1b4a19002571ed00296755