Netapp soll seinen Einsatz im Bereich Deduplizierung innerhalb von 4 Monaten um das dreifache erhöht haben und zielt mit über 3500 verkauften Systemen und einer 100 PByte Raw-Storage-Kapazität auf eine Führungsposition in diesem Marktsegment. Deduplizierung sorgt unter anderem in virtualisierten Umgebungen für eine schnelle und einfache Verringerung von redundanten Datenmengen, für eine Senkung des Speicherbedarfs und eine effizientere Datenhaltung. Die Deduplizierung ist in dem Betriebssystem der Netapp-FAS-Systeme „Data Ontap“ integriert und soll für Kunden kostenlos sein. (CaM)
| | |
| Infobox NetApp
|
URL:
|
|
Firmierung:
| NetApp
|
Stammsitz:
| Sunnyvale, USA
|
GF/CEO/MD:
| Dan Warmenhoven
|
Börse:
| ./.
|
Zuletzt behandelt im
| ./.
|
Benchpark Rating:
| ./.
|
DRT-Markt Eintrag
| ./.
|
URL press releases:
|
|
Produktkategorien:
| ILM, Sto, Arc
|
| |
| PROJECT CONSULT Kommentar:
|
NetApp sieht einen hohen Bedarf für die Deduplizierung von Daten bei Back Up-Verfahren. Na Klar! Welches Unternehmen hat heute keine Probleme das Volumen und die Komplexität der Datensicherung zu beherrschen? Dabei sind häufig nicht die Kapazitäten und die Übertragungsgeschwindigkeiten der Sicherungssysteme der Engpass in den Datensicherungsprozessen, sondern die Zahl der Dateien pro Sicherungslauf, die in mittleren und großen Unternehmen schnell in die Millionen geht. In der Folge müssen mindestens Teile des Datenbestands auf schnellen, aber auch relativ teuren Festplatten Arrays gesichert oder zumindest zwischengespeichert werden. Um hier den benötigten Plattenbedarf zu optimieren, bieten fast alle wichtigen Hersteller von Disk Back Up-Systemen Deduplizierungstechniken an.
Unter Deduplizierung versteht man nach der Definition der Enterprise Strategy Group einen Prozess der Eliminierung bzw. Entfernung von redundanten Dateien, Bytes oder Datenblöcken. Dies soll gewährleisten, dass Daten auf einer Festplatte nur einmalig gespeichert werden. Man spricht in diesem Zusammenhang auch von kapazitätsoptimierten Sicherungstechnologien. Auch wenn manchmal der Eindruck erweckt wird, dass es eine Technologie zur Datendeduplizierung gibt, sind die Ansätze der einzelnen Hersteller individuell auf die eigene Technologie zugeschnitten. Grundsätzlich handelt es sich aber immer um intelligente Erkennungsmethoden für sich wiederholende Objekte auf den Datenservern. Die Erkennung erfolgt dabei direkt im Datenstrom der Sicherungsläufe. Eine Komprimierung oder Verschlüsselung der Daten darf deshalb erst nach der Deduplizierung erfolgen. Deduplizierung greift das Problem der Datenredundanz ausschließlich beim Thema Back Up auf. Die durch Datenredundanzen entstehenden grundsätzlichen Probleme wie Aktualität und Konsistenz der Datenbestände werden dadurch in keiner Weise gelöst. Hier hilft nur die Bereinigung der Bestände und eine Klassifizierung der Daten. Dann erst können optimale Speicher- und Back Up-Strategien entwickelt werden. Dies erfordert allerdings einen deutlich höheren Aufwand, der nicht nur einmal aufgebracht werden muss. Analysen und daraus abgeleitete Maßnahmen müssen in einem kontinuierlichen Prozess weiterentwickelt und angepasst werden. (JH)