Der zweite DoQDAY ( http://www.doqday.de ) fand am 23.06.2003 in München statt und ist ausführlich in der DoQ ( http://www.doq.de ), Ausgabe 4, 2003, Seite 56ff, beschrieben. Den abschließenden Vortrag der Konferenz hielt Dr. Ulrich Kampffmeyer, Geschäftsführer von PROJECT CONSULT, zum Thema „Der Arbeitsplatz der Zukunft“. Im Folgenden ist der dritte und letzte Teil der Mitschrift dieses Vortrages wiedergegeben. Teil 1 erschien im Newsletter 20030807Newsletter 20030807, Teil 2 im Newsletter 20030903Newsletter 20030903. Es gibt Kollegen der Branche, die meinen, dass schon die zehn Jahre Aufbewahrungsfrist für steuerrelevante Daten das „Non-Plus-Ultra“ an Archivierungsanforderungen seien. Im Moment zieht sich zum Thema Archivierung steuerrelevanter Daten eine Riesen-Diskussion durch Publikationen und Foren. Aber wenn man es genau betrachtet, ist dies nur die Spitze des Eisberges. Wenn Sie wirklich Information als kritische Grundlage Ihres Geschäftes auffassen, dann müssen Sie sich darum kümmern, dass diese Information zehn, zwanzig, dreißig, vierzig, fünfzig Jahre zur Verfügung steht. Wenn Sie beispielsweise die Begriffe Archivierung und Records Management mit einem Absolventen der Archivhochschule Marburg oder einem Archiv z.B. der National Archives in den USA diskutieren, stellen Sie hier ein ganz anderes Verständnis dieser Begriffe fest. Da geht es nicht um 10 Jahre, diese Kollegen sprechen von fünfzig, von hundert, von zweihundert, von dreihundert Jahren Verfügbarkeit der Information. Das ist ein ganz anderer Maßstab. Die Hersteller von Archivsystemen hören dies nicht gern, denn wer kann oder will schon Verfügbarkeit für solche Zeiträume sicherstellen. So werden dann die Begriffe Archivierung und Records Management gern von den Anbietern umdefiniert und auf die eigene technische Lösung hin justiert.
Wir haben heute eine ganze Reihe von Beispielen von Anwenderunternehmen gesehen, in denen im Prinzip keine physischen Produkte mehr hergestellt werden. Dort, wo z.B. virtuelles Geld hin und her verschoben wird, wo die einzigen physischen Güter vielleicht noch ein unterschriebener Antrag und ein Vertrag sind. Dort, wo keine physischen Produkte wie Autos oder Joghurtbecher produziert werden, finden wir die größten Optimierungspotentiale im Büro. Dort kann man weitgehend Prozesse automatisieren, vieles auf Elektronik umstellen. Aber in solchen Unternehmen ist natürlich auch die Abhängigkeit von Information am größten. Man muss sich klar machen, was es heißt, wenn alle Information nur noch elektronisch in DV-Systemen vorliegt. Was heißt es denn, wenn ich alle Dokumente bei einem Dienstleister sofort nach Eingang scannen lasse, alle meine Vorgänge und Daten nur noch elektronisch bearbeitbar sind, und mein Softwaresystem schmiert mir für eine Woche ab? Bereits nach einer halben Stunde drehen die Mitarbeiter Däumchen. Und dann haben wir auch noch die Situation, dass bei der Investition in eine solche Lösung häufig an der Sicherheitsauslegung gespart wird. Angesichts der Wirtschaftsrezession, die nun ja auch mehr oder weniger offiziell verkündet wurde, kann man verstehen, dass man an der redundanten Auslegung von Hard- und Softwaresystemen Abstriche machen will, um Geld zu sparen. Damit schafft man sich aber keine Investitionssicherheit. Der Wert von Information für mein Unternehmen, meine Abhängigkeit von der Verfügbarkeit, müssen auch der Maßstab sein, wie ich die Informationen sichere. Denn nicht die Systeme, nicht die Software, nicht die Projekte, sondern die gespeicherte Information selbst stellt den eigentlichen Wert einer DRT-Lösung dar. Und je mehr Geschäftsverkehr elektronisch durchgeführt wird, je mehr sich ein Unternehmen auf elektronische Geschäftsprozesse einlässt, je größer die elektronischen Archive werden, desto wichtiger werden die Aspekte der Datensicherheit und sicher ausgelegter Systeme.
Sich wappnen auf Veränderungen
„Was kann man denn tun, um sich gegen diese Veränderungen zu wappnen?“ war einer der Themenwünsche der Kolleginnen von der DoQ. Sie brauchen eine IT-Strategie, die es Ihnen erlaubt, selbst die Entscheidungen zu treffen, wann Sie was wie für Ihren Geschäftszweck tun wollen, und nicht getrieben von Anbietern, durch neue Releases, durch neue Messeankündigungen, durch Wartungsabkündigungen, von einem System aufs nächste, mit all den Umstellungs-aufwänden, fremdbestimmt hüpfen zu müssen. Ich weiß, es ist heute schwierig, eine IT-Strategie bei all den Veränderungen und stürmischen Entwicklungen im IT-Markt durchzuhalten. Aber ich halte eine fundierte IT-Strategie für eine entscheidende Voraussetzung, wenn wir hier über Investitionssicherheit sprechen. Zu einer solchen IT-Strategie gehört auch eine Records-Management-Strategie, die den Umgang mit Aufzeichnungen im Unternehmen regelt. Hierfür gibt es sogar Normen wie beispielsweise die ISO-Norm 15489, die definiert, welche Maßnahmen zur Sicherstellung der langfristigen Informationsverfügbarkeit zu treffen sind. In dieser Norm ist auch beschrieben, was Records Management eigentlich ausmacht. Viele der Systeme, die heute im Umfeld Enterprise Content Management, Archivierung und Records Management angeboten werden, beschäftigen sich nur oberflächlich, genaugenommen manchmal wirklich nur an der Oberfläche, in der Visualisierung von Akten und Vorgängen, mit den Aufgaben einer konsistenten, langfristig stabilen Ablage und Erschließung von Information. Entscheidend sind jedoch die Strukturen im Hintergrund, wohldurchdachte Indizes und Ordnungskriterien, Schnittstellen und modulare Einpassbarkeit in die Systemlandschaft.
Ein großes Problem einer durchgängigen IT-Architektur, die auch die Aspekte der langfristigen Bereitstellung großer Dokumentenbestände einschließt, ist die Heterogenität der vorhandenen Systemlandschaft. Gerade in großen Unternehmen erleben wir immer wieder, dass heterogenen Welten mit altertümlichen Hostanwendungen, ergänzt um dezentrale Client-/Server-Lösungen, die mehr oder weniger wild in Abteilungen gewachsen sind, und neu dazukommend Web-Server-, Content-Server und Portale, für eine einheitliche Informationsbereitstellung und sichere, übergreifende Verwaltung große Hürden darstellen. Die Konsolidierung dieser heterogenen Systemwelten, die Ablösung kleiner Server durch größere Maschinen oder konsolidierte Serverparks, die Umstellung alter Cobol-Anwendungen, das Einfangen der Bürokommunikation und all der vielen selbst gestrickten Kleinanwendungen, stellt eine der aktuellen Herausforderungen an die IT-Manager dar. Diese Konsolidierung bietet aber auch Chancen bei der Einführung von Document Related Technologies. In eine saubere System- und Anwendungslandschaft lassen sich Dokumenten-Services einfacher integrieren und effizient nutzen. Daher ist es wichtig, dass Sie hier auf ein strenges Dienstekonzept achten, bei dem Dokumenten-Technologien als Service für andere Anwendungen nutzbar sind. Keine monolithischen Anwendungen mit eigenständigen Fat-Clients und intransparenten Prozessen, aufwendiger Administration und individuell realisierten Schnittstellen. Homogene IT-Landschaften sind immer einfacher zu handhaben als heterogene.
Abgegrenzte Dienste sind das Stichwort, die Sie unabhängig von einander nach Erfordernis austauschen können, die nur einmal installiert sind und allen anderen Anwendungen ihre spezielle Funktionalität zur Verfügung stellen. Dies erhöht auch die Sicherheit, zukünftig nicht ein komplettes System austauschen zu müssen, sondern nach und nach Ihre Lösung weiterzuentwickeln und auszubauen. Vermeiden Sie daher möglichst individuelle Programmierung, besonders solche, die auf einem Fat-Client Anwendungsintegration betreibt. Versuchen Sie Ihre benötigte Funktionalität möglichst auf der Serverebene durch Standardprodukte abzudecken. Meine Empfehlung an dieser Stelle ist: Individuelle Kringel sind teuer, koppeln Sie von der Weiterentwicklung der Standardprodukte ab, und machen Ihre Systeme aufwendig betreibbar und wartbar. Also lieber in der Konzeptionsphase einer DRT-Lösung etwas intensiver nachdenken und eine saubere Lösung planen: Braucht man wirklich jede individuelle Schleife oder lassen sich bestimmte Probleme nicht einfacher durch organisatorische Anpassungen lösen. Technologie-orientierte 100%-Lösungen haben wenig Realisierungschancen. Man sollte daher immer die gute ale 80:20-Regel beachten, besonders wenn es um individuelle Anpassungen einer Standardsoftware geht.
Standards spielen hier unter zwei Gesichtspunkten eine Rolle. Einmal internationale Normen und Standards, die dem Anwender ein gewisses Maß an Sicherheit, Überprüfbarkeit, Austauschbarkeit gewähren. Solche Standards werden immer weniger von der Document-Related-Technologies-Branche gesetzt, sie kommen von außen, aus der allgemeinen ITK-Branche, von den großen Softwareanbietern, die ihre Standards durchsetzen. Dies zeigt sich auch daran, dass immer mehr Dokumenten-Management-Funktionalität auf Betriebssystemebene oder aber in Standardpakete integriert mitgeliefert wird. Ein gutes Beispiel sind Imaging-Viewer, kleine Client-Programme für die Anzeige, zur Übersicht, für den Druck und die Bearbeitung von gescannten Faksimiles. Früher musste man für solche Viewer viel Geld auf den Tisch legen, 2000, 3000 Dollar pro Arbeitsplatz waren da keine Seltenheit. Heute werden solche Viewer bereits von Microsoft und Co mit dem Betriebssystem geliefert. Oder nehmen Sie die Integration von Workflow in gängige ERP-Lösungen wie SAP. Egal welches Produkt Sie aber einsetzen, individuelle Anpassungen für Ihre spezifischen Fachanforderungen sollten jedoch nicht das Produkt verändern sondern als separate, unabhängig pfleg- und weiterentwickelbare Komponente realisiert werden. Andernfalls können Sie die Abhängigkeit vom Anbieter nicht überwinden. Und dies ist gerade angesichts des sich konsolidierenden Marktes von besonderer Bedeutung.
Wenn wir unter diesen Gesichtspunkten die Trends im DRT-Markt betrachten, dann wird eines klar, wir befinden uns in einer Phase der Markt-Konsolidierung. Viele bekannte Namen werden in ein paar Jahren nicht mehr da sein, aufgekauft, gemergt oder aufgegeben. Das wird ähnlich ablaufen, wie bei ERP-Produkten, wie bei Textverarbeitungssoftware, wie bei Directory Services, wie bei Druckeransteuerungen. Eine Handvoll von Anbietern wird sich vom Feld absetzen und die Zurückbleibenden werden zu Nischen-Anbietern. Wir werden so auch eine weitere Differenzierung des Produktangebotes erleben. Viele der heutigen Anbieter werden nicht mehr als eigenständige Produktanbieter am Markt sein, sondern spezialisierte Branchenlösungen anbieten oder Komponenten, die dann im Bauch anderer Lösungen verschwinden.. Das ist beispielsweise bei Scanning-Systemen heute schon so. Da weiß der Käufer häufig bei der Anschaffung seiner Lösung nicht ob dort eine Input Accel- oder eine Kofax-Komponente integriert ist. Der Produktname der integrierten Komponente verliert an Visibilität, darüber prangt der Produktname des Lösungsanbieters. Verabschiedet man sich von eigenständigen, proprietären Insellösungen und setzt auf einen Komponenten-, einen Diensteansatz, verschwindet das Produkt und sein Name von der Oberfläche. Für viele Komponenten-Anbieter ergibt sich hieraus eine schwierige Situation. Er erreicht nicht mehr selbst oder allein den potentiellen Kunden. Berücksichtigt man ferner, dass immer mehr Dokumenten-Funktionalität in Standardsoftwareprodukten mitgeliefert wird, verlagern sich auch die Entscheidungen des Kunden. Häufig stellt sich heute schon nicht mehr die Frage, welches Produkt kaufe ich zusätzlich ein um Dokumenten-Management zu betreiben, sondern welche redundant vorhandene Funktionalität in meinen Standardprodukten nutze ich denn, die DMS-Funktionalität meines ERP, meines Portals, meiner Datenbank.. Besonders in heterogenen Landschaften, wo z.B. Microsoft als Basisplattform vorhanden ist und der Sharepoint Portal Server installiert wurde, darauf als Bürokommunikation und Groupware auf Basis von Lotus Notes Domino läuft und auch Domino.doc verfügbar ist, SAP für kaufmännische Daten und Human Ressources genutzt wird und auch die Workflow-Komponente vorhanden ist, und zu guter letzt vielleicht noch Oracle als Datenbank genutzt wird und die DMS-Komponenten von Oracle im Lizenzpreis enthalten waren, wenn Sie so eine heterogene IT-Infrastruktur haben, ist eher eine Entscheidung notwendig, welche redundant vorhanden Dokumenten-Funktionalität welchen Produktes benutze ich denn nicht! Sie haben dann nämlich vielleicht gleich drei oder viel Mal die notwendige Funktionalität bereits im Haus. Das Problem verschärft sich auch noch zukünftig, da alle Anbieter ihre Produkte mit weiterer Funktionalität aufrüsten. Wenn dann irgendwann einmal auch Microsofts Outlook Workflow kann, dann stellt sich die Frage, nutze ich Lotus, nutze ich SAP oder nutze ich Oracle für die Abbildung meiner Prozesse. Die Frage, kaufe ich mir ein spezialisiertes Zusatzprodukt eines arrivierten DRT-Anbieters tritt dann mehr und mehr in den Hintergrund. Für die traditionellen DRT-Anbieter ist dies eine echte Herausforderung, denn sie müssen Ihnen erklären, warum man zusätzlich unbedingt ihr Produkt neben vielleicht weniger geeigneter, aber vorhandener Software braucht. Der Wettlauf um die Alleinstellungsmerkmale und um die zusätzlichen Nutzenmerkmale wird immer rasanter. Die Abstände zwischen den integrierten Komponenten in Standardprodukten und den spezialisierten Produkten werden dabei immer kleiner. Es gibt häufig nur einen Ausweg für die traditionellen DMS-Anbieter: Spezialisierte, vorkonfektionierte Branchenlösungen für spezielle Anwendungsfälle mit hohem ROI – hier ist er also wieder, der ROI!
Wo stehen wir im Jahr 2010
Damit komme ich fast zum Ende meines Vortrages, da aber meine Zeit vom Beginn her beschränkt war, werde ich fünf Minuten überziehen, liebe Frau Jancke-Klevers. Denn eigentlich wollten Sie ja von mir eine Botschaft hören: „Wo stehen wir im Jahre 2010?“
Ich bin der Überzeugung, dass der große Krieg der Standardsoftwareanbieter auf Betriebssystemebene – Linux, Microsoft – sich ausgetobt hat und bei einem ca. etwa bei einem 50:50 Anteil Stabilität eingetreten sein wird. Andere UNIX-Derivate werden in Linux aufgegangen sein.
Bei den ERP-Anbieter, da wird es nur noch ganz wenige geben. Der Konsolidierungstrend setzt sich fort und wird sich gleichermaßen auf andere Standard-Software-Marktsegemente ausdehnen.
Gleiches gilt daher auch für Collaboration-, DMS- und Workflow-Software, auch hier wird nur noch eine Handvoll den Markt dominieren. Der Hintergrund dafür ist, dass immer mehr Dokumenten-Technologien als Funktionalität in Standardsoftwareprodukten angeboten werden. Teile dieser Funktionalität werden wir auch über neue Medien bereitgestellt bekommen. Hier ist z.B. an UMTS-basierte Organizer-Telephone – das Handy wird wieder größer und das Notebook schrumpft – zu denken, die auch in der Lage sind Dokumente anzuzeigen. Erste Ansätze heute sind z.B. BlackBerry-Geräte, die dies bereits ermöglichen. Notebook, Organizer und Handy werden zusammenwachsen und dabei zunehmend auch Dokumenten-Technologien unterstützen.
Dies bedeutet auch, das Anwendungen und Technologien, die für die Arbeit im Büro entwickelt wurden, durch das Zusammenwachsen aller Eingangs- und Ausgangsinformationskanäle auch in das Privatleben vordringen. Es gibt heute schon erste kleine Multi-Media-Anwendungen für nur 39 Euro, die eine Vielzahl von Dokumenten-Management-Funktionen für die Verwaltung elektronischer Fotos und Videos beinhalten. Auch dort kann man virtuelle Aktenordner anlegen, Notizen den Informationen mitgeben, Wiedervorlagen und Merker setzen, Versionen verwalten, Archivieren und die Informationen für die Nutzung auf Portalen aufbereiten. In den nächsten Jahren wird sich hieraus auch eine Konkurrenz zu den Systemen entwickeln, die heute für die professionellen Anwender bei der Büroarbeit gedacht sind. Deutlich werden diese Ansätze besonders im Umfeld des Media Asset Managements.
Ein wichtiges Thema, das auch immer wieder angesprochen wird, ist: Wie sieht es denn in sechs, sieben Jahren mit den Speichermedien aus? Ich glaube nicht, dass wir dann noch Jukeboxen für den direkten Online-Zugriff nutzen werden. Diese werden nur noch als Sicherungssysteme eine Zukunft haben, auch wenn jetzt gerade neue Technologien mit höherkapazitiven Medien auf den Markt kommen.. Angesichts der fallenden Preise für Festplatten wird man diese verstärkt für die Online-Verfügbarkeit benutzen. Es wird in 7 Jahren nicht außergewöhnlich sein, zwanzig, dreißig oder fünfzig TeraByte im Unternehmen stehen zu haben. Da spielt es auch keine Rolle mehr, ob man ein Dokument nur noch in einem Format speichert oder besser gleich für verschiedene Nutzungsszenarien unterschiedliche Renditions und Versionen direkt vorhält. Die herkömmlichen, nur ein Mal beschreibbaren WORM-Medien, die wird man nur noch zur Absicherung, z.B. zur Auslagerung der Daten an einen sicheren Ort, benutzen. Versuche eines einzelnen Anbieters, der seine Software für WORM-Medien beim Bundesfinanzministerium als einziges Medium für die Speicherung steuerrelevanter Daten durchzudrücken, wie auf einigen Websites nachzulesen, werden kaum von Erfolg gekrönt sein. Auch Bänder und Festplattensysteme können heute die Anforderungen an eine revisionssichere Archivierung weitgehend erfüllen. Aber wir müssen hier auch weiter denken und auch neue Speichertechnologien in Betracht ziehen. Ich denke hier zum Beispiel an Memory-Sticks in Fotoapparaten, deren Speicherkapazität immer weiter ausgebaut und die bereits als Schlüsselanhänger für den Austausch von Daten zwischen zwei Notebooks bequemer als die gute alte Diskette genutzt werden können. Als universeller Datenaustauschträger verbinden Memory-Karten und –Sticks heute schon Fotoapparate, Videokameras, Diktiergeräte und andere Aufnahmekomponenten mit Verarbeitungs- und Ausgabekomponenten wie Drucker, PCs und Fernsehapparate. Wir erleben bereits heute einen gewaltigen Umbruch bei den Speichertechnologien. Allein dies sollte Sie dazu veranlassen, über das Thema Langzeitverfügbarkeit und Migration ernsthaft nachzudenken: Wie bekomme ich meine Informationen von den heutigen Medien verlustfrei auf die Medien der Zukunft, die billiger, schneller und einfacher sein werden.
Heute ist Scannen in schwarz-weiß noch der Standard, in sieben Jahren wird es ein alter Hut sein. Alle Geräte und Anwendungen werden auf Multimedia und Farbe ausgelegt sein. Dementsprechend wird auch das Scannen in Farbe eine Selbstverständlichkeit sein. Schon heute können dies die kleinen Multifunktionsgeräte, die wir zu Hause haben: Fax, Kopierer, Scanner, Drucker in einem. Hier wird sich der Trend zu universellen Multifunktionsgeräten fortsetzen. Neue technologische Entwicklungen werden zunächst für den Consumer-Market, den Massenmarkt verfügbar sein, und sich erst dann in die Büros auf den Weg machen, wo die Leistungsanforderungen höher, aber auch die absetzbaren Stückzahlen geringer sind. Das Home-Office wird daher häufig moderner und integrierter ausgestattet sein als der Arbeitsplatz im Großbüro. Das Zusammenwachsen von Telefonie, Fernsehen und PC-Technologie wird 2010 weitgehend technologisch abgeschlossen sein, auch wenn sich nicht jeder diese schöne neue Welt leisten können wird.
Aus Dokumenten werden elektronische Informationsobjekte. Sie tragen alle Schutz- und Verwendungsinformationen mit sich. Dieser Ansatz findet sich in unterschiedlichen Bereichen beginnend vom Schutz von Musikstücken und E-Book-Inhalten als auch beim Aktenaustausch zwischen Verwaltungen und Unternehmen. Das Dokument wird intelligent. Früher gab es viele proprietäre Ansätze. Häufig wurden die Metadaten nicht beim Dokument mitgespeichert sondern nur in Datenbanken zur Verwaltung der Objekte gehalten. Dezentrale Nutzung und der Handel mit Informationen zwingen uns aber die Informationsobjekte selbst intelligent zu machen. Eine Technologie, die bereits heute in aller Munde ist, wird hier im Jahre 2010 eine Schlüsselrolle einnehmen: XML. XML erlaubt, komplexe Strukturen zu beschreiben, Dokument-Formate ebenso wie Schnittstellen. Auch Microsoft hat sich XML inzwischen angenähert und ermöglicht in der jüngsten Office-Version auch die Speicherung alternativ zum .doc-Format im XML-Format. Allerdings muss man dies heute noch bei der Konfiguration einstellen. Und selbst Adobe mit ihrem PDF blicken jetzt auf XML. Das auf Layout-Treue ausgelegte Druck- und Anzeigeformat soll zukünftig als Archivstandard auch die Möglichkeit erhalten, Metadaten im XML-Format mit zu speichern. Adobe verspürt hier schon den Druck, den XML als Standard auszuüben beginnt. Der PDF/A-Standard wurde daher auch gleich bei der ISO zur Normung eingereicht, damit dieses Format den Charakter einer OpenSource-Software erlangt. OpenSource-Produkte werden besonders beim Dokumentenaustausch zunehmend eine Bedeutung erlangen. Proprietäre Entwicklungen, selbst von Größen wie Microsoft haben langfristig wenig Chancen. Wer heute auf XML setzt hat also eine gewisse Zukunftssicherheit. XML ist auch inzwischen in der Lage, elektronische Signaturen aufzunehmen. Der entsprechende Standardisierungsentwurf der OASIS wurde erst kürzlich veröffentlicht. Die Einbettung von elektronischen Signaturen in PDF-, XML- und andere Office-Formate schreitet weiter voran und wird sicherlich zum ersten Jahrzehntwechsel dieses Jahrtausends State-of-the-Art sein.
Die elektronische Signatur steckt heute noch in den Kinderschuhen. Hier bin ich auch anderer Meinung als Sie Herr Prinz (Vorredner zum Thema elektronische Signaturen), um eine schnelle Verbreitung und Akzeptanz zu erreichen, hätte die elektronische Signaturkarte in jede Wiege jedes Neugeborenen gehört und jeder hätte seinen bisherigen Personalausweis gegen einen Kartenausweis mit Signatur kostenfrei umtauschen können müssen. Denn bei den geringen Stückzahlen und nur wenigen Anwendungsgebieten ist die Chipkarte heute einfach immer noch zu teuer, dies tut sich kein Privatmann an. Elektronische Signaturen sind auch nicht erfunden worden, um beim Scannen die Vollständigkeit der Erfassung zu bescheinigen, oder aber die Datenübertragung der Umsatzsteuervoranmeldung zu ermöglichen. Das sind Anwendungsgebiete, für die die elektronische Signatur eigentlich weniger gedacht war. Die Elektronische Signatur ist dafür gemacht worden um beim E-Business, beim E-Commerce Transaktionen, Geschäfte zwischen unbekannten Dritten, als Willenserklärung vergleichbar einer manuellen Unterschrift abzusichern. Allein dieser Anspruch zeigt, hier helfen keine nationalen Regelungen, die elektronische Signatur ist ein globales Thema. International einheitliche Standards und Techniken für die elektronische Signatur werden allerdings auch im Jahr 2010 noch nicht abschließend formuliert und durchgesetzt sein. Und man darf nicht übersehen, dass auch andere Verfahren diesen Markt zukünftig besetzen könnten. Jeder kann sich vorstellen, was es heißt, wenn z.B. Microsoft mit dem Betriebssystem eine Signatur ausliefert, die unter anderem die PC-Prozessor-ID oder die Handy-Prozessor-ID auswertet, ohne zertifiziertes Trustcenter auskommt und mit anderen Mitteln eine ausreichende Authentifizierungs- und Integritätssicherheit erzeugt. Dies kann bedeuten, dass wir heute auf eine Karte mit hohen Sicherheitsstandards setzen, die vielleicht in ein paar Jahren nur noch Museumswert hat. Besonders Deutschland muss hier aufpassen, da wir in Punkto elektronische Signatur mit den qualifizierten Signaturen mit Anbieterakkreditierung schon einmal einen kleinen Sonderweg beschritten haben. Dies ging nur so lange gut, bis sich einer dieser akkreditierten Anbieter vom Markt zurückziehen wollte.
Knowledge Management wird eine Renaissance erleben, auch wenn der Begriff heute durch überzogene Ankündigungen der Anbieter etwas in Verruch geraten ist. Knowledge Management wird eine der wichtigsten Funktionen zur Erschließung großer Informationsmengen werden. Solche Komponenten werden zunehmend in Suchmaschinen und Retrievalanwendungen integriert. Neben den Einsatzbereich in großen, zentral erschlossenen Lösungen tritt der intelligente Agent. Nicht mehr vordefinierte Workflows steuern Abläufe auf zentralen Maschinen, sondern Agenten sammeln sich die benötigten Informationen zusammen und die Eigenschaften der Informationsobjekte selbst steuern den Verarbeitungsfluss. Agenten werden im Jahr 2010 Allgemeingut sein und auch den privaten Bereich des PC-Anwenders durchdringen.
Solche intelligenten Zusatzfunktionen werden auch Datenbanken und Suchmaschinen selbst benötigen, um der exponentiell wachsenden Informationsflut Herr zu werden. Längst ist es nicht mehr das Scannen von Papierdokumenten, das uns die größten Probleme bereitet. Zwar werden bis 2010 nicht alle heute absehbaren Scan-Projekte, bei denen es zum Teil um hunderte Kilometer von Schriftgut geht, abgeschlossen sein, aber der größere Druck entsteht durch die elektronisch geborene Information, digital born, wie der Amerikaner sagt. Papier ist bereits heute nur noch eine mögliche Repräsentationsform von Information, die originär elektronisch entstanden ist. Zwei wesentliche Probleme stehen bis zum Jahr 2010 zur Lösung an: einmal die beliebige Kopier- und Multiplikationsfähigkeit von elektronischen Informationen. Ein Beispiel ist die Spam-Mail in unseren Posteingangskörben. Aber auch die Frage wird immer schwieriger zu beantworten: Was war denn eigentlich das Original eines elektronischen Dokumentes, welche Form, welcher Format ist denn dauerhaft als elektronisches Original zu archivieren? Content Management mit der Trennung von Inhalt, Metadaten, Struktur und Layout trägt erheblich zu diesem Problem bei, ohne dass wir heute schon adäquate Lösungen hätten. Das zweite Problem ist nahe verwandt mit dem zuvor erwähnten der Auflösung des geschlossenen Dokumentcharakters. Immer neue Formate, Einbettung von dynamischen, nicht persistenten Verlinkungen und MultiMedia-Objekten, elektronische Signaturen und Wasserzeichen, eine wachsende Liste an Auszeichnungsmerkmalen und Attributen von Dokumenten machen es immer schwieriger sicherzustellen, dass ein Dokument verlustfrei und formatgetreu noch in ein paar Jahren angezeigt werden kann.
Der Druck auf die Anbieter, Lösungen für den Übergang vom Papier in die Elektronik zu schaffen, als auch die originär elektronischen Dokumente in den Griff zu bekommen, wird immer größer. Da dieses Probleme alle betrifft, zunehmend auch den Privatmann, wird es auch attraktiv kostengünstige, multiplizierbare, einfache und in der Fläche einsetzbare Lösungen als Produkte zu schaffen. Das Jahr 2010 wird eine Reihe dieser neuartigen Standardprodukte erleben. Denn eines ist – Gott sei Dank – inzwischen geregelt: Rechtlich gesehen können wir heute ohne Papier auskommen. Unter gegebenen Bedingungen haben elektronische Dokumente die gleiche Rechtsqualität wie mit Hand unterschriebene Dokumente. Dieser immense Schritt nach vor, erst vor ein paar Jahren auf Grund der europäischen Richtlinie angeschoben, inzwischen bei uns im BGB und vielen anderen Gesetzen verankert, wird erst in den nächsten Jahren Wirkung zeigen. So werden wir durchaus noch die Jahre bis zum Jahrzehntwechsel benötigen, um hierfür die notwendigen Umstellungen vorzunehmen und auch die generell erforderlichen Änderungen in unserem allgemeinen Umgang mit Dokumenten und Informationen anzuschieben. Ich möchte hier noch einmal auf den Vortrag von Herrn Prinz zur elektronischen Signatur zurückkommen. Auch wenn das 3. Verwaltungsverfahrensänderungsgesetz in 80% seiner Paragraphen fast nur Ausnahmen definiert, wo die elektronische Signatur nicht verwendet werden darf, so ist es dennoch ein Fortschritt, da hiermit die Ausnahmen erkennbar geworden sind. Überall sonst können wir die elektronische Signatur rechtswirksam einsetzen.
Aber auch ohne elektronische Signatur haben elektronische Informationen nach dem BGB einen wesentlich besseren Rechtsstatus erhalten. Die früher vermittelte Drohung der ZPO auf eine mögliche Nichtanerkennung elektronischer Beweismittel hat durch entsprechende Ausführungen und dadurch, dass die Gerichte selbst zunehmend elektronische Verfahren einsetzen, an Schreckenskraft verloren.
Zum Abrunden noch ein weiterer Aspekt: Wir haben heute Beispiele von überquellenden elektronischen Postkörben gesehen. Die Verwendung einer E-Mail-Adresse ist kaum noch kontrollierbar und mit der Ablehnung einer Spam-Mail validiere ich vielleicht auch noch meine Adressdaten und mache den Weiterverkauf attraktiver. Wir haben Knowledge-Management- und Workflow-Lösungen gesehen, in denen der Vorgesetzte, der Vertreter und wer auch immer die Möglichkeit hat, den Füll- und Abarbeitungsgrad meines Arbeitskorbes zu kontrollieren. Die Erstellung von Profilen und deren Auswertung ist für Portalsysteme eine lebensnotwendige Eigenschaft, um die Zielgruppen immer genauer adressieren zu können. Nimmt man dieses alles zusammen, so wird eine Angstvorstellung greifbar, der „gläserne Bürger“. Die Verdichtung von Informationen zu Unternehmen und Personen schreitet voran und ist ein lukrativer Wirtschaftszweig geworden. Ich bin daher der Überzeugung, dass in den kommenden Jahren eine erneute, ernsthafte Diskussion um den „gläsernen Bürger“, um „Freedom-of-Information“-Gesetze, um das Ausspähen der letzten Persönlichkeits-, Finanz-, Eigentums-, Konsumenten- und Gesundsheitsgeheimnisse entbrennen wird. Dokumenten-Technologien sind ein wichtiger Aspekt dieser Diskussion. In der Vergangenheit waren nur strukturierte Daten auswertbar, durch Knowledge Management gilt dies auch zukünftig für schwachstrukturierte und unstrukturierte Informationen. Die Information, die bis zum Jahr 2010 über Sie vorliegen wird, wird Ihnen noch nicht einmal mehr erlauben ein unerkanntes Liebesverhältnis zu führen, das Handy wird nicht nur Ihren Standort ermitteln, sondern extern eingeschaltet auch das Auf und Ab dokumentieren, und es wird sicherlich irgendwo ein gigantisches Archiv gegeben, in dem Ihre Daten archiviert werden – sei es als Hilfestellung für die Polizei und nur als Nachweis aus steuerlicher Sicht zur Aufzeichnung ihrer Verbindungs- und Abrechungsdaten.
Es wird zwar versucht, durch Gesetze wie das BDSG oder TDDSG den Missbrauch dieser Informationen einzuschränken, aber die hierfür notwendigen Technologien halten mit der stürmischen Marktentwicklung nicht Schritt. Die Schaffung von Privatsphäre auf Handy, PC, Notebook und digital vernetztem Fernseher wird auch 2010 immer noch eine Herausforderung darstellen. Dies wird auch Auswirkungen auf den mobilen Mitarbeiter und den Heimarbeitsplatz haben. Sicherheit und Privatsphäre in der elektronischen Welt könnten durchaus zwei der Slogans des Jahres 2010 werden.
Aber auch die ersten Gegenentwicklungen können wir erwarten, das Pendel kann durchaus zurückschlagen. Als Abkehr von der Elektronik und dem von ihr verursachten Stress kann ich mir durchaus eine Runde von Managern vorstellen, die sich in abgelegenen Waldstücken unter Eichen trifft – sofern solche noch gesund im Wald stehen – und dort mit Papier und Bleistift ihre Ideen als Mindmaps ordnen – unerreicht von Handys, ohne Kontrolle und Zeitstempel, und ohne Dokumente im elektronischen Postkorb, deren Eskalationszeitpunkt minütlich näher rückt. Wenn man nicht weiß, was beim Betreten des Unternehmens schon bei der Fernerkennung des Unternehmensausweises automatisch protokolliert, ausgewertet und archiviert wird, kann man schon auf solche Ideen kommen.
Dies soll deutlich machen, das nicht alle Entwicklungen Segnungen sind, dass manche Goldmedaillen auch eine tiefschwarze Rückseite haben. Dies sieht man zum Beispiel an der schönen neuen Urhebergesetzgebung, die klar regelt, wie mit Rechten auch in der elektronischen Welt umzugehen ist. Nur die technische Umsetzung fehlt, Multimedia-Clearing-Rights-, Digital-Rights-Management- und Wasserzeichen-Systeme stehen erst am Anfang der Entwicklung. Viele technische Fragen sind noch nicht geklärt: Was macht man, wenn es mehrere Rechte auf einem Dokument gibt oder ein Recht nur einen Abschnitt betrifft? Was passiert, wenn ich einfach mit Copy&Paste herauskopiere, zwei Worte ändere und dies in einem eigenen Text verwende? Wir werden bereits heute zunehmend mit einer Flut von Plagiaten erstickt. Sie müssen hierzu nur Google mit einer Fachfrage füttern und sich ansehen, wie viele gleichartige Texte aus unterschiedlichen Quellen auftauchen. Und Sie werden feststellen, dass Plagiate und Raubkopien sogar weiter oben in der Trefferliste stehen, da die Originale meistens ein älteres Speicherdatum als die Kopien besitzen.
Wir sind hier mit einer Reihe von Problemen im rechtlichen und im menschlichen Bereich konfrontiert, die spätestens 2010 zu erheblichen Diskussionen und gegebenenfalls Verwerfungen führen werden. Dennoch bin ich der Überzeugung, dass Sie heute in Ihren Unternehmen mit der Einführung solcher Technologien beginnen müssen, weil Ihre Wettbewerbsfähigkeit davon abhängt. Wessen Unternehmen in 2010 nicht informationstechnologisch topfit ist, der wird massive Wettbewerbsnachteile haben oder schon nicht mehr existieren. Vielerorts kann man sich schon heute nicht mehr entziehen, wenn man Bestandteil einer Supply Chain ist, auf elektronischen Daten- und Dokumentenaustausch mit Behörden, Lieferanten und Kunden angewiesen ist, alle wichtigen Informationen im Unternehmen originär nur noch digital vorliegen. Deshalb müssen wir das Risiko, das mit dem elektronischen Arbeitsplatz der Zukunft verbunden ist, in Kauf nehmen.
Mein Schlusssatz für heute ist praktisch schon gefallen, ich meine das Herrn von Pierer hier von meinem Vorredner zugewiesene Zitat vom „papierlosen Klo“ im Vergleich mit dem „papierlosen Büro“. Ich kenne diesen Ausspruch schon sehr lange und auch die Liste derjenigen ist lang, die dieses Zitat zuerst gebraucht haben wollen. Ich persönlich war früher immer ein Anhänger der abgeschwächten Version, des papierarmen Büros, weil ich daran nicht geglaubt habe, dass es ein vollständig papierloses Büro jemals geben wird. In einem Beitrag für die DoQ habe ich aber erst kürzlich diese Ansicht geändert und weiter ausdifferenziert.
Es wird nämlich das papierreiche Büro des Wissenschaftlers geben, der Elektronik nur zur Kommunikation oder zur Unterstützung seiner Dokumentation nutzt, der intellektuell arbeitet, individuell, nicht standardisierbar.
Es wird das papierarme Büro des Knowledge-Workers geben, der sich mit dem Medienbruch arrangiert hat, der in beiden Welten lebt, wo Papier und Elektronik nebeneinander her laufen und doch nicht zu einer Arbeitsbehinderung, sondern zu einer Effizienzsteigerung führen. Denn es ist vielfach auf einem großen Tisch hundert Seiten eines neuen Buches auszulegen und händisch durchzugehen, als sich hundert Seiten am Bildschirm anzugucken. Bei meinen Publikationen, wie z.B. meinem jüngst erschienenen neuen Buch, arbeite ich selbst so.
Und es wird das papierlose Büro geben. Mit dedizierten Abläufen, wo elektronische Anträge hereinkommen, elektronisch unterstützt verarbeitet werden, elektronisch signiert werden, elektronisch weiter gegeben werden und elektronisch archiviert werden. Vielleicht ist dann der Menuzettel der Kantine, wenn er nicht längst im Intranet steht, das einzige Stück Papier auf dem Schreibtisch des Sachbearbeiters.
Aber es gibt noch eine Vision des Arbeitsplatzes der Zukunft, jenseits des papierlosen Büros: Das menschenleere Büro. Man kann es nicht sehen, da es sich auf irgendeinem Server eingerichtet hat, es ist aber schon vielfach da. Wo sich Systeme untereinander unterhalten, wo der Mensch nicht mehr eingreift, wo die Materialwirtschaft automatisch die Paletten mit Joghurt bestellt, und es erfährt kein Mensch davon bis denn die Paletten auf den LKW aufgeladen werden. Ein Büro, wo die Interaktion ohne menschliches Zutun erledigt wird. Spätestens dann, wenn wir über solche Prozesse nachdenken – und das machen wir ja um des ROIs Willen –, spätestens dann müssen wir uns fragen: Welche Rolle spielt denn der Mensch in dieser Arbeitswelt noch? Vielleicht ist es eine gute Idee, noch einmal das Buch „Welt am Draht“ zu lesen, sich die Szene mit dem elektronischen Archiv aus „Disclosure“ noch einmal auf dem Videorekorder hervorzuzaubern oder heute abend ins Kino zu gehen, um diesen Film mit den tollen Actionszenen anzusehen: Matrix Reloaded – Welcome im Jahr 2010.