20090226 (Teil 2) \  Gastbeiträge \  Künftige Datenspeicher für die digitale Archivierung
Künftige Datenspeicher für die digitale Archivierung
Gastbeitrag von Immo Gathmann, 
E-Mail:
Immo.Gathmann@t-online.de  
Immo Gathmann und Dr.
Ulrich Kampffmeyer haben in den 80er Jahren am Fraunhofer Institut IITB zusammengearbeitet.
Nach einer IDC Studie vom März 2007 überschritt die Menge der weltweit produzierten Daten erstmals  bereits im Jahr 2007 die Kapazität der weltweit verfügbaren digitalen Speicher. Diese Schere wird sich weiter öffnen, denn im Jahr 2010 erwartet IDC einen Zuwachs auf 988 Exabytes – 2006 waren es noch 161 Exabytes. Maßgeblichen Anteil daran haben der immer weiter fortschreitende Einsatz digitaler Bildaufnahmegeräte – Digitalkameras, digitale Camcorder, digitale Röntgenaufnahmegeräte, usw. - anstelle analoger Systeme sowie die ständig wachsende Internetgemeinschaft mit geschätzten 1,6 Milliarden online Anschlüssen im Jahr 2010. Die Herstellung von Kopien wird extrem erleichtert, ebenso ihre Verbreitung weltweit. Dazu passt auch die Aussage IDC´s, dass der Anteil der von einer Person erzeugten digitalen Daten geringer ist als der Anteil der über diese Person hergestellten Daten, z.B. Aufzeichnungen von Überwachungskameras etc.. Aus Sicherheitsgründen geforderte redundante Datenhaltung in der IT Industrie stellen eine weitere Quelle des Datenzuwachses dar. Zusätzliche Forderungen des Gesetzgebers Daten revisionssicher zu archivieren – Stichwort Compliance - steigern den Bedarf an entsprechenden Speichermedien. Davon betroffen sind etwa 20% aller Daten. Um diesen Forderungen gerecht zu werden muss sich das IT-Management um bessere Nutzung der Kapazitäten (Stichwort De-Duplizierung), neue Regeln für die Erzeugung, Speicherung Verteilung und Sicherheit der Daten sowie um neue Hilfsmittel zur Erzielung flexibler, anpassbarer und erweiterbarer Speichertechniken kümmern. Aber auch die Speicherhersteller sind gefordert, den Bedarf an höherer Kapazität, schnelleren Zugriffszeiten und niedrigerem Energieverbrauch zu stillen.
Tape ist tot – lang lebe Tape
Tot gesagte leben länger. Dies gilt insbesondere für Bandspeichertechnologien. Seit über 55 Jahren werden Daten auf Magnetbändern aufgezeichnet. Fanden zu Beginn auf einem 720 Meter langen 12“ Rollenband 1,4 MB Daten Platz sind es heute auf einer LTO-4 Kassette bereits 800 GB. Weitere LTO Generationen werden folgen, die bis zu 3,2 TB an Daten aufnehmen können. Auch die Datentransferrate wird von heute 120 MB/s auf 270 MB/s zunehmen, dagegen liegen die Zugriffszeiten im mehrstelligen Sekundenbereich. Mit weniger als 10 Cent pro GB fallen die Anschaffungskosten für Magnetbänder extrem niedrig aus. WORM Medien erfüllen die Forderung nach Revisionssicherheit, der geringe Energieverbrauch macht Bandsysteme auch für die Langzeitarchivierung interessant. Dafür müssen allerdings die vom Hersteller geforderten Lagerbedingungen bei niedriger Temperatur und niedriger Luftfeuchtigkeit strikt eingehalten werden. Dies wiederum erhöht die TCO über die Archivdauer von 30 Jahren gesehen.
Festplatten –  
günstigen Anschaffungskosten stehen hohe Betriebskosten gegenüber
Ist ständige Verfügbarkeit der Daten gefragt, stellen Festplattensysteme heute sicher die erste Wahl dar. Erste Festplatten mit bis zu 2TB Kapazität werden bereits ausgeliefert. Zugriffszeiten im einstelligen Millisekundenbereich sowie Transferraten von über 100 MB/s garantieren eine sehr gute Performance. Auch wenn der Anschaffungspreis mit ca. 20 Cent/GB wesentlich unter dem noch vor wenigen Jahren üblichen 0,8 Euro/GB liegt, bleibt die TCO für Festplatten auf hohem Niveau: Hoher Energieverbrauch für die Geräte selbst und deren Kühlung, hoher Platzbedarf sowie ihre Kurzlebigkeit (durchschnittlich 6 Jahre) die häufigere Migrationsprozesse zur Folge hat, erhöhen die Kosten für Festplattensysteme. Erste Ansätze, den Energiebedarf von Festplattensystemen zu reduzieren, gibt es bereits im Markt. Diese Systeme schalten die Disks ab, auf die gerade kein Zugriff erfolgt. 75% des Energieverbrauchs sollen dadurch eingespart werden. Allerdings liegen die Anschaffungskosten für solche Systeme bei ca. 3,0 Euro/GB.
Da es keine WORM Festplatten gibt, erfordert die revisionssichere Archivierung auf Festplatten zusätzlichen administrativen Aufwand. Dadurch werden die Kosten weiter in die Höhe getrieben, so dass Festplattensysteme für die Langzeitarchivierung nach heutigem Stand weiterhin nur eine untergeordnete Rolle spielen werden.
Solid State Disks – schnell aber teuer
Um einiges schneller noch als Festplatten sind Solid State Disks. Die Zugriffszeiten liegen hier im Mikrosekundenbereich (ca. 200 μs), die Übertragungsraten (80 MB/s (schreiben) – 250 MB/s (lesen)) erreichen speziell beim Lesezugriff bisher von keinem anderen externem Speichermedium erreichte Werte. Darüber hinaus glänzen sie durch ihre Robustheit, ihren geringen Energiebedarf, die geringe Wärmeentwicklung und ihre Lautlosigkeit. Allerdings sind diese Speicher bisher noch sehr teuer > 3 Euro/GB, ihre Lebensdauer liegt bei ca. 5 Jahren, die maximale Kapazität einer Solid State Disk beträgt heute 128 GB. Damit sind sie für die Langzeitarchivierung vorerst ungeeignet.
Optische Speicher –  
optimal für die Langzeitarchivierung, wenn man auf die richtigen Produkte setzt
Seit den frühen 80ger Jahren des letzten Jahrhunderts werden optische Platten für die Archivierung digitaler Daten eingesetzt. Fanden zu Anfang 2 GB an Daten auf einer 12“ optischen Platte Platz, bieten heutige optische Platten im 5 ¼“ Format  50 GB (Blue-Ray-Disc) bzw. 60 GB (UDO-2) an Kapazität. Die  wesentlichen Unterschiede gegenüber den ersten optischen Platten liegen in der Verwendung eines blauen anstelle eines langwelligeren, roten Lasers und der verbesserten Optik. Beide Änderungen erlauben die Erstellung kleinerer Vertiefungen bzw. Löcher als Repräsentanten eines Bits und eine dichtere Anordnung derselben in der Aufzeichnungsschicht der optischen Platte. Optische Platten werden in erster Linie als WORM Datenträger zur Langzeitarchivierung eingesetzt. Sie sind robust gegen äußere Einflüsse, bieten eine Transferrate von 5 -10 MB/s, der Zugriff erfolgt als „Random Access“ und liegt bei 25 – 150 ms. Die Datenlebensdauer liegt bei über 30 Jahren. Ein Nachteil optischer WORM Platten ist, dass zu ihrem Betrieb spezielle Software benötigt wird. Dies erhöht den administrativen Aufwand und auch die initialen Kosten. Kapazitätserhöhungen auf 100 bzw. 120 GB wurden bereits angekündigt. Durch den Einsatz von Billigprodukten (CD und DVD), der dazu führte, dass archivierte Daten nicht mehr gelesen werden konnten, und den ständig fallenden Preisen bei Festplatten haben optische Platten heute mehr denn je einen schweren Stand im Markt, obwohl ihre Eignung für die Langzeitarchivierung unbestritten ist – vorausgesetzt man setzt nicht auf die oben bereits erwähnten Billigprodukte.
Holographische Speicher –  
der „natürliche“ Nachfolger der optischen Speicher
Sie gelten gewissermaßen als die Nachfolger der optischen Speichertechnologie. Zwei Verfahren zur Speicherung von Hologrammen als Repräsentanten von ganzen Bitströmen werden zur Zeit entwickelt. Dabei liegt die Firma InPhase mit seiner Entwicklung der holographischen Disk in Führung.
InPhase arbeitet mit einem einzigen Laserstrahl (Wellenlänge etwa 405 nm (Blauer Laser)). Dieser wird vor dem Objekt geteilt - in den Gegenstandsstrahl und den Referenzstrahl.  Der Gegenstandsstrahl be-/durch-leuchtet das Objekt – ein als „Holografische Seite“ voller schwarzer und weißer Punkte dargestellter Bitstrom von 1,4 Millionen Bits - der Referenzstrahl wird über Spiegel umgeleitet und trifft hinter dem Objekt auf den modifizierten Gegenstandsstrahl. Als fotografische Platte dient (Holografische Seite) eine optische Speicherplatte auf der das Referenzmuster in dreidimensionaler Form festgehalten wird.
 
 
Abb. 2   Datenaufzeichnung  und Lesen aufgezeichneter Daten
Eine Änderung des Winkels des Spiegels, der den Referenzstrahl umleitet, erlaubt die Speicherung einer weiteren Seite auf der optischen Platte, ohne dass diese ihre Position verändert. Bis zu 320 Seiten (~ 56MB) können so auf einer Stelle des Speichermediums abgelegt werden. Dadurch erklärt sich auch die hohe Kapazität (300 GB) des Speichermediums, das den gleichen Durchmesser wie eine CD hat. Die Aufzeichnungsschicht fällt mit 1,5 mm jedoch im Vergleich zu anderen optischen Datenträgern wie CD oder DVD sehr dick aus, da die Interferenzmuster, wie oben gesagt, räumlich gespeichert werden.
 
 
Abb. 3   Medium, schematischer Aufbau.
Da mit jeder Aufnahme eine komplette Seite (1,4 Mio Bits) gespeichert wird (bei allen anderen optischen Speichern oder Magnetspeichern erfolgt die Speicherung bitweise), erreichen holographische Speicher relativ hohe Transferraten (160 MBit / s (=20MB/s)). Künftige Generationen sehen Transferraten von 80MB/s bzw. 120 MB/s vor. Außerdem wird das Medium während des Schreibens/Lesens nur dann bewegt (gedreht), wenn über die Grenze von 320 Seiten hinaus geschrieben/gelesen werden muss.
Das Medium ist transparent und nur von einer Seite zu beschreiben. Seine chemische Zusammensetzung kommt ohne irgendwelche Metalle aus. Dadurch wird es unanfällig  Sonneneinstrahlung. Die nächsten Generationen dieser Technik werden 800 GB bzw. 1,6 TB Kapazität bieten. Möglicherweise können sie dadurch Marktanteile, die bisher von Band- oder Festplattentechnologie dominiert werden, erobern.
Neben InPhase beschäftigt sich auch eine Gruppe namhafter Firmen (angeführt von Optware, Fuji Photo und CMC Magnetics), die sich zur HVD-Alliance zusammen geschlossen haben, mit der Entwicklung einer holographischen Disk (HVD = Holographic Versatile Disc).
 
            
Abb. 4   Struktur der Holographic Versatile Disc
1. grüner Schreib-/Lese-Laser (532 nm) 
2. roter Positionierungs-/Adressierungs-Laser (650 nm)
3. Hologramm (Daten) 
4. Polycarbon-Schicht 
5. Photopolymerische Schicht (Datenträgerschicht) 
6. Distanz-Schichten 
7. dichroitische Schicht (reflektiert grünes Licht) 
8. Aluminium reflektive Schicht (reflektiert rotes Licht)
9. Transparente Basis
P. PIT
Bei diesem Verfahren werden zwei Laser verwendet: ein blau-grüner zum Schreiben und Lesen der Daten, ein roter zum Schreiben der Daten und Lesen von Hilfsinformationen, vergleichbar den Sektor-, Kopf- und Segment- Informationen auf einer Festplatte. Beide Laser werden überlagert (im obigen Bild zur Klarheit nebeneinander gezeichnet) und erzeugen ein Interferenzmuster, das als Hologramm in der Photopolymerschicht festgehalten wird. Beim Lesezugriff, liest der blau-grüne Laser das Hologramm aus der Polymerschicht aus, während der rote die Hilfsinformationen auf der Aluminiumschicht liest. Wie das obige Bild zeigt, ist der Aufbau der HVD wesentlich komplexer als der des InPhase-Mediums. Der Vorteil dieses Verfahrens liegt darin, dass damit bis zu 3,9 TB auf einer Disk gespeichert werden können und die Transferrate schon in der ersten Generation bei 125 MB/s liegen wird.
Beide holographischen Techniken bieten die Möglichkeit, die zu speichernden Daten durch eine zusätzliche Maske per Hardware zu verschlüsseln, so dass sie nur noch mit dem selben Laufwerk oder einem Laufwerk mit derselben Verschlüsselungsmaske gelesen werden können. Die so verschlüsselten Daten sind somit fast nicht zu „knacken“. Die Lebensdauer holographischer Speicher wird mit mehr als 50 Jahren angegeben. Zusammen mit den aufgeführten Speicherkapazitäten und Transferraten stellen sie vielleicht das Archivspeichermedium der Zukunft dar.  
Millipede Nanospeicher –  
der Tausendfüßler unter den Speichermedien
Seit Jahren arbeitet IBM an der Entwicklung der Millepede (Tausendfüßler) Nanospeicher. Das Grundprinzip ist vergleichbar mit der früheren Lochkarte, jedoch mit Größenordnungen, die im Nanobereich liegen. Mit Hilfe tausender, feinster Nadeln werden winzige Vertiefungen, die die einzelnen Bits repräsentieren, in einer dünnen Polymerschicht erzeugt. Mit den selben Nadelspitzen kann man auch Vertiefungen in der Polymerschicht erkennen und so die Bits wieder auslesen. Zum Überschreiben werden auf dem Rand einer Vertiefung neue Vertiefungen erzeugt, deren Ränder die alten Vertiefungen überlappen und so das Polymermaterial in die alte Vertiefung drängen.
 
Abb. 5   Millipede Schreib-/Lesekopf (Oben); Vertiefungen im Polymerfilm (Unten)
Die Dichte der Vertiefungen kann so extrem hoch gewählt werden, dass bis zu 125 GB auf einem Quadratzoll großen Bereich gespeichert werden können. Aktuell werden Schreib-/Leseköpfe mit 64 * 64 (4096) Nadelspitzen eingesetzt. Diese sind fest installiert, das Speichermedium – ein dünner Polymerfilm - dagegen bewegt sich relativ zum Schreib-/Lesekopf. Obwohl es sich um ein teilweise mechanisches Verfahren handelt, werden Übertragungsraten von 3 – 4 MB/s erreicht. IBM rechnet mit den ersten Prototypen noch in diesem Jahr. Langfristig sollen Millipede Speicher die heutigen Festplatten ersetzen.
Racetrack Memory –  
schnell und für die Ewigkeit
Hierbei handelt es sich um eine neue Speichertechnologie, die von IBM entwickelt wird. Sie soll die hohe Leistungsfähigkeit von Flashspeichern mit der großen Kapazität und den niedrigen Kosten der Festplatte kombinieren.
Die Daten werden in Form von winzigen, gegensätzlich magnetisierten Bereichen (Domänen) in einem Nanodraht gespeichert.
 
Abb. 6   Nanodraht mit mehreren Domänen (blau, rot) und zentraler Schreib-/Leseeinheit
Die einzelnen Domänen im Nanodraht werden mit einer Geschwindigkeit von 100 m/s über die zentrale Schreib-/Leseeinheit verschoben. Die Datenbits scheinen durch den Datenleiter zu rasen, daher der Name „Racetrack“. Die Zugriffszeiten bewegen sich dabei im Bereich unter einer Nanosekunde, sind also mehrfach geringer als bei Flash-Speichern.
Ordnet man viele Tausende dieser Nanodrähte, die zwischen 10 und 100 Bits speichern können, senkrecht auf einer Fläche an, kann laut IBM eine Datendichte erzielt werden, die rund 100-mal höher liegt als bei heute verfügbaren Festplatten. Als Alternative zu Flash- und Festplattenspeichern soll sich der Racetrack -Speicher eignen, weil er bewegungslos arbeitet. Medium und Schreib-/Lese-Kopf stehen fest und sind per Halbleitertechnik gefertigt. Dadurch gibt es keine Abnutzungserscheinungen, was den Racetrack-Speicher widerstandsfähiger als alle bisherigen Speichertechnologien macht und ihm eine nahezu unbegrenzte Lebensdauer verleiht – eine sehr gute Voraussetzung für den Einsatz zur Langzeitarchivierung. Mit den ersten Prototypen dieser Speichertechnologie ist laut IBM in ca. 10 Jahren zu rechnen.
 
Abb. 7    Zusammenfassung der vorgestellten Techniken und ihre Eignung für die Langzeitarchivierung soweit bisher bekannt.
Quellen:
IBM: Storage-Kompendium 2008
IDC: The Expanding Digital Universe, März 2007
Immo Gathmann: Holographie mischt die Archivspeicherszene auf, PROJECT CONSULT Newsletter 20071015 Newsletter 20071015 
InPhase: Tapestry Brochure 2007
 
 
 
 
 
 
 
 
 
 
 
 
 
Weitere Kapitel
© PROJECT CONSULT Unternehmensberatung GmbH 1999 - 2016 persistente URL: http://newsletter.pc.qumram-demo.ch/Content.aspx?DOC_UNID=7b0523029fe04dd1002575a3006356c9