Grundlagen Datensicherung (Backup) unter Windows

Winfried Mueller :: reintechnisch.de
Start: 07.08.2005 :: Stand: 14.11.2013

Übersicht

Einführung

Das sichern von Daten ist eines der wichtigsten Lektionen, die man im Umgang mit Computern irgendwann lernt. Die meisten lernen es auf sehr schmerzliche Weise.

Viele Jahre geht alles gut, doch auf einmal ist die Festplatte kaputt und nichts geht mehr. Und dann läuft einem ein kalter Schauer über den Rücken oder es verkrampft sich etwas in der Magengegend. Denn es wird einem bewusst, dass alles, was man an Daten in den letzten Jahren produziert hat, auf einmal im Datennirvana verschwunden ist: Briefe, Tabellen, Adresslisten, Mailadressen, E-Mails, gesammelte Informationen, erstellte Checklisten, Artikel, Präsentationen, Bilder, Videos, Musik usw. Nichts mehr da, von alle dem.

Dann fängt man meist mühselig an, in einer Sammlung alter Disketten und CD's zu wühlen. Die meisten sind schon älter als ein Jahr. Manchmal hat man dabei Glück, ein paar wichtige Informationen wieder zu finden. Vieles ist jedoch für immer verloren.

Und dann kommt irgendwann auch Wut und Ärger: Das kann doch nicht sein! Sowas darf doch einfach nicht passieren, dass auf einmal alles weg ist! Warum hat mir das denn der freundliche Verkäufer des Gerätes nicht mitgeteilt?

Wenn man sich etwas beruhigt hat, kommt oft auch Einsicht: Ja, eigentlich hat man es ja gewusst oder zumindest geahnt, dass Thema aber leichtfertig beiseite geschoben. Es ist ja lästig. Und außerdem: Ist doch bisher alles gut gegangen.

Jetzt aber nicht, jetzt ist vieles weg. Der Schmerz ist groß. Und mitunter hat es schon manche Firma in den Ruin getrieben.

Datensicherung ein Muss

Im Laufe der Jahre lernt man meist aus solch einem Desaster, dass Datensicherung ein absolutes Muss ist. Ab der ersten Zeile Information, die man in ein System einspeist. Wenn man sich auf die Daten, die man erstellt, nicht verlassen kann, wird viele Arbeit ad absurdum geführt. Jeden Moment gibt es die Möglichkeit, dass vieles wieder vernichtet wird. In so einem Klima lässt sich schlecht arbeiten.

Den Weg der Verdrängung zu wählen, ist ein geläufiger. Das böse Erwachen groß. Manche brauchen auch mehrere Zwischenfälle, um wirklich der Tatsache gewahr zu werden, dass Daten nunmal auf einer Festplatte nicht sicher sind. Und meist braucht es weiteres, um diese Erkenntnis auch im praktischen Handeln einfließen zu lassen.

Das Problem bei Datensicherung ist, dass es eine lästige Zusatzaufgabe ist, die zudem noch einiges an Struktur abverlangt, damit etwas Sinnvolles dabei herauskommt. Und das, was man bei Stress zuerst fallen lässt, weil der direkte Nutzen nicht spürbar wird, ist die Datensicherung.

Menschen mit einer phobischen Veranlagung und der Fähigkeit, sich Zukunftssorgen zu machen, haben es meist etwas leichter. Sie können sich gut ausmalen, was wäre, wenn...

Den Sorglosen, die gerne mal in ein Desaster hineinschliddern, sollte man zumindest in einer Firma nicht die Aufgabe übertragen, sich um Datensicherung zu kümmern.

Unter Administratoren gibt es diesen Witz: "Unsere Backups waren gut, nur mit dem Restore (Wiederherstellung) gab es Probleme."

Wer Probleme hat, den Sinn von Datensicherung zu erkennen, sollte öfters mal eine Übung machen:

Stellen Sie sich vor, was wäre, wenn alle Daten auf dem Computer weg wären?

Hierfür sollte man sich ruhig mal 5-10 Minuten Zeit nehmen. Ich denke, dann wird klar, wie wichtig es ist, den Daten ein sicheres Zuhause zu geben.

Es gibt noch einen weiteren wichtigen Punkt: Aus Angst vor dem Desaster lassen sich Menschen überhaupt nicht mehr richtig auf die effiziente Nutzung des Computers ein. Jeder Brief, jede E-Mail wird ausgedruckt, Berge von Ordnern füllen sich, die dann wieder mühsam nach Information durchsucht werden müssen. Dabei bietet sich doch gerade dafür so gut der Computer an: Viele Daten zu speichern, die effizient durchsucht werden können.

So wie das Umfeld ist, in dem man lebt, so organisiert man sich sein Leben. Ein unsicheres Umfeld verhindert, dass man sich darauf einlässt. Will man sich mehr auf die Computertechnik einlassen, muss man gleichzeitig für ein sicheres Umfeld sorgen.

Im Folgenden wird es darum gehen, Methoden zu vermitteln, wie man zu Hause und in kleineren Firmen oder Vereinen seine Daten sichert.

Wohin sichern?

Vor ein paar Jahren noch waren Streamer (Kassetten-Laufwerke) eine wichtige Form des Backups. Für den Privatbereich sind sie seit der Einführung der beschreibbaren CD nahezu ausgestorben. Man findet sie kaum noch in den Technik-Kaufhäusern. Im kommerziellen Umfeld werden sie jedoch häufig eingesetzt, weil sie die einzige zuverlässige Möglichkeit darstellen, größere Datenmengen zu sichern. Die Streamer-Technologie ist dabei relativ teuer. Das gilt sowohl für die Laufwerke wie auch für die Streamer-Bänder (Kassetten). Das liegt z.T. auch daran, dass dafür kein Massen-Konsumer-Markt mehr existiert und damit die produzierte Stückzahl relativ gering ist. Streamer-Laufwerke und Bänder halten auch keine Ewigkeit. Die Laufwerke müssen z.B. alle 2-5 Jahre gewechselt werden.

Eine seit etwa 20 Jahren gängige Technologie sind die sogenannten DAT-Streamer. Diese Technologie hat vor allem den Vorteil, dass die Bänder sehr preiswert sind. DAT-Bänder gibt es zwischen 2-20 Euro, Bänder anderer Technologien kosten meist 30-100 Euro und sind damit deutlich teurer. DAT Bänder gibt es derzeit von 2-320 Gigabyte. Laufwerke liegen bei 300-700 Euro.

Eine neuere Streamer-Band-Technologie ist LTO Ultrium. Sie wird als Gemeinschaftsprojekt von HP, Seagate und IBM ständig weiterentwickelt. Heutige Bandgrößen liegen bei 1,5TB unkomprimiert und sind für 50 Euro erhältlich. LTO-Laufwerke sind teuer, beginnen bei 700-1000 Euro.

Daneben gibt es noch die DLT-Streamer, eine Entwicklung von Quantum. Weil Quantum mittlerweile zu Seagate gehört, ist zu vermuten, dass LTO die zukunftssichere Technologie ist. DLT Bänder sind schon heute wesentlich teurer, als LTO. Die Laufwerke sind ähnlich teuer, wie LTO.

Für viele ist die CD oder die DVD das geeignete Backup-Medium. Sie sind relativ unempfindlich und sehr preiswert. Interessant auch, dass nicht magnetisch gespeichert wird, weshalb magnetische Umwelteinflüsse unproblematisch sind. Als externes Medium kann man sie räumlich getrennt aufbewahren. Und auch die Brenner sind, weil Massenartikel, extrem preiswert.

Die höchste Datensicherheit soll übrigens die DVD-RAM haben, die sich allerdings nur wenig durchsetzen konnte, weshalb die Rohlinge teurer und schwerer zu bekommen sind.

Ein Nachteil von CD und DVD ist die geringe Speicherkapazität. 700MB oder 4,8GB/8,5GB sind nicht sehr viel bei heutigen Festplatten von 500-3000 GB Fassungsvermögen. Wer viele Audio- und Videodateien oder Fotos zu sichern hat, weiß, wie schnell selbst eine DVD gefüllt ist. Und dann wird es nervig, wenn man für seine Datensicherung einen Satz von zahlreichen CD's/DVD's braucht. Berücksichtigt werden muss allerdings auch die mögliche Kompression von Daten. Aber gerade die speicherintensiven Bilder, Musik und Videos lassen sich in der Regel nicht weiter komprimieren, weil sie schon auf komprimierten Formaten beruhen.

Die von der DVD weiterentwickelte Technologie ist Blu-Ray mit einer Speicherkapazität von 25GB und 50GB bei Doppellayer. Experten halten diese Medien nicht für sonderlich geeignet für Datensicherungen, weil sie zu anfällig sind. In bestimmten Fällen kann der Einsatz aber sinnvoll sein.

Tipp: Die Haltbarkeit von Brennern ist begrenzt. Mir ist aufgefallen, dass DVD-Brenner viel anfälliger sind, als die damaligen CD-Brenner. Laufwerke, die täglich eine Datensicherung machen, fallen bei mir nicht selten schon nach 2-3 Jahren Betrieb aus. Bei Preisen unter 50 Euro kann man auch darüber nachdenken, alle 2 Jahre die Hardware zu tauschen.

Wegen der heutigen Begrenzung von CD's und DVD's, werden Massendaten von vielen auf externe Festplatten gesichert. Diese sind in einem kleinen Kasten eingebaut, welcher mit dem PC meist über die USB-Schnittstelle verbunden wird. Weil dort eine gewöhnliche Festplatte ihren Dienst tut, ist das Speichervermögen enorm. Damit kann man eine 1:1 Kopie seiner internen Festplatte machen. Das ist verlockend und deshalb sind diese Festplatten in den letzten Jahren auch sehr beliebt geworden. Aus der Sicht der Datensicherheit hat man hier allerdings einige Risiken.

Festplatten sind empfindliche und komplexe Systeme. Die Elektronik kann durch Überspannungen kaputt gehen. Oder irgendwo schleicht sich ein Wackelkontakt oder eine kalte Lötstelle ein. Der Kopf kann aufsetzen und die Plattenoberfläche zerstören. Mechanische Einflüsse, gerade im laufenden Betrieb, können große Schäden anrichten. Magnetische Einflüsse können die Daten löschen. Fehlbedienung kann wichtige Dateien löschen, die eigentlich wichtig waren und die man archivieren wollte.

Ein weiterer Aspekt ist, dass man Datensicherungen nicht an begehrenswerte Hardware koppeln sollte. Denn solche Hardware wird gerne geklaut, damit ist dann auch die Datensicherung weg. Kurzum, eine externe Festplatte ist genauso wie eine interne Festplatte ein ziemlich unsicherer Ort für wertvolle Daten. Externe Festplatten sind zudem noch größerer Gefahr ausgesetzt, versehentlich zu hohe Erschütterungen abzubekommen.

Mit ausgeklügelten Systemen von mehreren Festplatten kann diese Art der Sicherung aber hinreichend sicher werden. Diese sollten dann auch räumlich getrennt aufbewahrt werden, damit ein Diebstahl, Wasser- oder Feuerschaden nicht alle Daten vernichtet.

Festplattensicherung ist heutzutage oftmals die einzige finanzierbare Möglichkeit, große Datenmengen zu sichern.

Neben externen USB-Festplatten gibt es auch Festplatten mit Netzwerkanschluß - sogenannte NAS-Laufwerke. Vorteil ist hier der einfache Zugriff von allen Computern im Netzwerk. Auch kann man hiermit räumlich größere Distanzen überbrücken. Durch NAS-Laufwerke kann man zusätzliche Sicherheit im laufenden Betrieb schaffen, wenn mehrere Festplatten die Daten redundant verwalten. Fällt eine Festplatte aus, sind immer noch alle Daten erhalten. Die defekte Platte kann dann ausgetauscht werden und die Inhalte werden wieder gespiegelt (sogenannte Raid-Systeme). In der letzten Zeit sind NAS-Laufwerke immer beliebter geworden, weil sie praktisch sind. Sie sind aber etwas aufwändiger in der Einrichtung und Verwaltung gegenüber USB-Festplatten. Preislich sind sie mittlerweile für wenige hundert Euro zu haben.

In der letzten Zeit auch immer beliebter geworden, sind die Memory-Sticks. Super klein und bequem in der Handhabung, kann man schnell und unkompliziert eine ganze Menge Daten sichern. Heutige Sticks können Datenmengen bis 64GB abdecken im Lowcost-Bereich abdecken. Das reicht in vielen Fällen, um die wirklich wichtigen Daten zu sichern. Wer etwas mehr Geld in die Hand nimmt, kann auch 128GB Sticks bekommen.

Memory-Sticks haben einen Vorteil gegenüber Festplatten - sie beinhalten keine bewegten Teile und sind damit mechanisch sehr robust. Man darf sie ruhig mal fallen lassen, nur selten tun sie sich dabei weh. Genauso unempfindlich sind sie gegenüber hohen Temperaturschwankungen. Ja selbst ein Bad im Wasser können sie nur selten zerstören, wenn man sie nachträglich ordentlich trocknet. Gespeichert wird nämlich auf einen gut vergossenen Mikrochip, der so einiges ab kann.

Trotz dem Memorysticks als recht robust angesehen werden können, sind sie keine sonderlich guten Backupmedien. Zumindest dann nicht, wenn man sich lediglich auf einen Stick verlässt. Elektronik reagiert z.B. relativ empfindlich auf elektrostatische Entladungen. Diese können einen Stick zerstören. Überspannung, durch ein fehlerhaftes Computernetzteil verursacht, ebenso. Kalte Lötstellen im Stick können Daten ins Jenseits befördern, mitunter sogar unerkannt.

So hatte ich schon einen Stick in der Hand, der vorgab, alles korrekt gespeichert zu haben. Auch konnten die Daten wieder ausgelesen werden. Jedoch haben kleine unbemerkte Veränderungen in den Dokumenten fast alles unlesbar gemacht. Der Stick hat die Daten nicht korrekt gespeichert, weil einzelne Speicherzellen defekt waren. Seitdem kaufe ich nur noch Sticks von Markenfirmen. Datensicherungen sollten auch auf Konsistenz überprüft werden. Backupprogramme können meist die Konstistenz einer Sicherung testen.

Ein Memorystick ist auch wieder begehrte Hardware, die gerne geklaut wird. Erst recht, wenn er z.B. mit einem MP3-Player ausgestattet ist. Auch können die kleinen Teile schnell mal verlegt werden.

Achtung: Manche Memorysticks sind sehr langsam, gerade wenn sie beschrieben werden. Diese können durchaus Faktor 10 langsamer sein, als man das von einer externen Festplatte gewohnt ist.

Tipp: Bei allen Speichermedien, die elektronische Komponenten enthalten, kann man den Schutz der Daten wesentlich erhöhen, wenn man sie nicht permanent elektrisch mit dem restlichen System verbunden hat. So schützt man sich vor Bedrohungen wie Blitzeinschlag oder Überspannung. Auch verhindert man so den Zugriff und damit das versehentliche oder böswillige Löschen von Daten.

In letzter Zeit gibt es durch die Vernetzung mit dem Internet eine weitere Form der Datensicherung: Die entfernte Sicherung auf einem Server, der über's Internet erreichbar ist. Es gibt mittlerweile sogar schon kostenlose Anbieter von Internet-Speicherplatz, wo man seine Daten ablegen kann. Diese Möglichkeit ist deshalb interessant, weil eine weite räumliche Trennung gegeben ist. Das schafft Sicherheit z.B. im Brandfall. Auch gibt es hier qualitativ hochwertige Anbieter, die sich professionell um Datensicherung kümmern, die also die abgelegten Daten über eine weitere Backup-Maßnahme sichern. 2013 lagen die Preise für Online-Backup bei etwa 7 Euro pro 100GB (z.B. Strato HiDrive).

Auch das speichern in der Cloud wird heute ja immer mehr praktiziert. Hier fungiert ein externer Server als zentraler Datenspeicher, über den sich diverse Endgeräte synchronisieren oder auf den sie zugreifen.

Problematisch ist hier das Thema Datensicherheit: Wer möchte schon gerne seine persönlichen und sensiblen Daten einem Fremdunternehmen überlassen, was man noch nicht einmal kennt und was kostenlos diesen Dienst zur Verfügung stellt. Dies ist eine Barriere, wenn es um sicherheitstechnisch sensible Daten geht. Zusätzliche Absicherung können verschlüsselte Container bringen, die man hochlädt (z.B. Truecrypt). Viele Daten sind aber auch nicht so kritisch, es wäre kein Weltuntergang, wenn Fremde z.B. die eigenen Urlaubsfotos oder die eigene Musiksammlung in die Hände bekommen. Daten, die wenig sensibel sind, kann man so problemlos extern sichern. Ob es sich dabei um eine zusätzliche Sicherungsmaßnahme oder die Hauptsicherung handelt, hängt von den Zusagen und Bedingungen des Anbieters ab. Evtl. kann man auch bei mehreren Anbietern parallel sichern.

Für Firmen sind viele Cloud-Angebote nicht akzeptabel, weil grundlegende Voraussetzungen für den Datenschutz nicht gegeben sind. Auch erhöht das die Abhängigkeiten zu externen Anbietern, auf deren Handeln man nur wenig Einfluss hat. Externe Datensicherung sollte hier auch nur erfolgen, wenn die Daten zuvor sicher verschlüsselt wurden. Bei Verschlüsselungssystemen auf externer Seite weiß man nie, woran man ist und ob man sich auf die Standards dort verlassen kann.

Wer seine Daten bei einem externen Anbieter übers Internet sichert, muss immer mit einem erhöhten Risiko leben, dass Daten in die falschen Hände gelangen. Theoretisch kann man zwar vieles absichern, praktisch schleichen sich aber auf unterschiedlichsten Ebenen doch wieder Schwachpunkte ein, die dann alle weiteren Absicherungen zum Einsturz bringen. Umgedreht ist heutzutage fast jeder Computer mit dem Internet verbunden, also grundsätzlich weltweit angreifbar. Die Frage, wo Daten sicherer sind, ist da gar nicht mehr so einfach zu beantworten.

Die Sicherung über das Internet ist natürlich auch von der Datenmenge limitiert. Auch mit DSL hat man keine sehr hohen Upload-Geschwindigkeiten und kann nicht mal eben einige Gigabytes transferieren.

In Anbetracht dieser Möglichkeiten empfiehlt sich Folgendes im privaten Umfeld und in kleinen Unternehmen:

  • Die CD/DVD ist die erste Wahl bei der Datensicherung. Man sollte seine Daten so organisieren, dass ein regelmäßiges Backup wirklich wichtiger Daten damit möglich wird. Speicherplatz-intensive Daten, die diese Lösung sprengen würden, sollten eine separate Backup-Strategie bekommen. Diese Lösung macht in der Regel nur Sinn, wenn man alle Daten auf eine CD/DVD bekommt. Sonst wird es zu aufwändig.
  • Memorysticks und Festplatten eignen sich für zusätzliche und kurzfristige Sicherungen. Man kann z.B. täglich neu erstellte Dokumente auf einem Stick sichern und dann wöchentlich eine Sicherung auf CD/DVD machen. Auf einem Stick sollte nur das gesichert werden, was mit vertretbarem Aufwand auch wieder neu erstellt werden kann. Gleiches gilt für die Festplatte. Beides sind sehr bequeme Möglichkeiten der Sicherung, weshalb sie sich für die kurzfristige Zwischensicherung eignen.
  • Wer oft große Datenmengen sichern muss, setzt entweder auf DAT-Streamer oder auf eine gut durchdachte, verteilte Festplattensicherung. Die Daten liegen dann redundant auf mehreren, räumlich getrennten Festplatten. Der Ausfall mindestens einer Festplatte kann immer verkraftet werden. Der gleichzeitige Ausfall mehrerer Festplatten ist unwahrscheinlich bzw. man muss prüfen, ob im konkreten Fall Szenarien vorstellbar sind, wo mehrere Festplatten gleichzeitig bedroht sind.
  • Die Sicherung bei externen Anbietern über das Internet kann in manchen Fällen Sinn machen, ist jedoch oft nur von begrenztem Nutzen.

Backup-Strategien

Wenn auf CD/DVD gesichert wird, wird oft der Fehler gemacht, ein oder zwei wiederbeschreibbare CD's zu nutzen, die immer wieder überschrieben werden. Das ist billig und einfach zu handhaben. Meist werden die so erstellten Kopien der Daten auch noch in der Nähe des Computers gelagert.

Das ist alles recht riskant. Bei Diebstahl oder im Falle eines Brandes sind alle Daten weg. Deshalb ist eine wichtige Grundregel: Räumlich getrennte Aufbewahrung.

Die räumliche Trennung schafft sehr viel Sicherheit, je weiter entfernt, um so besser. Man kann eine Datensicherung z.B. in ein Bankschließfach unterbringen oder von der Firma mit nach Hause nehmen. Wenn dann Ort A von Diebstahl, Brand oder anderen Naturkatastrophen betroffen ist, ist es sehr unwahrscheinlich, dass das zum gleichen Zeitpunkt auch für Ort B zutrifft. Besonders dann, wenn beide Orte geografisch weit voneinander entfernt sind. Räumliche Trennung spielt also bei Datensicherung immer eine große Rolle.

Insofern ist die "Kleine Lösung", 2 wiederbeschreibbare CD's in der Schreibtisch-Schublade, ungeeignet. Es kommt ein weiteres Problem hinzu: Die vespätetete Entdeckung von Datenverlust.

Nicht immer bekommen wir mit Pauken und Trompeten mitgeteilt, dass gerade eine wichtige Datei verloren gegangen ist. Nicht immer ist es ein Total-Ausfall unseres Computers. Manches geht auch schleichend und völlig unbemerkt vonstatten. Dazu reicht schon ein falscher Klick mit der Maus oder ein falscher Tastendruck. Schnell hat man eine wichtige Datei zerstört. Oder die Festplatte hat einen Fehler, der nicht sogleich auffällt und die Datensicherung speichert ebenso diese fehlerhafte Datei. Oder ein Virus zerstört uns schleichend und lange unbemerkt unsere Dateien.

In solchen Fällen ist es wichtig, auf ältere Stände zurückgreifen zu können. Das kann man aber nicht bei der "Kleinen Lösung". Nach spätestens 2 Wochen sind die CD's überschrieben und der vorherige Stand der Daten gelöscht. Für immer.

Es ist also wichtig, nicht immer nur den aktuellen Datenstand gesichert zu haben. Wir brauchen vielmehr den Datenbestand zu beliebigen historischen Zeitpunkten. Und hier kann es recht aufwändig werden, weshalb eine sinnvoll ausgewählte Strategie wichtig ist.

Eine im betrachteten Umfeld (Privat und kleinere Firmen) beliebte Lösung geht so:

  • 4 wiederbeschreibbare CDs/DVD's für die tägliche Datensicherung von Montag - Donnerstag
  • 1 einmal beschreibbare CD/DVD für die Sicherung am Freitag

Mit diesem Verfahren hat man also den Stand am Ende jeder Woche dauerhaft gesichert. Diese CDs werden dann z.B. extern archiviert. Es kommen so 52 CDs jährlich zusammen, was bei den heutigen Preisen kein Problem darstellt. 50 CDs bzw. DVDs sind für unter 10 Euro zu bekommen. Wenn man bedenkt, dass eine Streamer-Kassette durchaus 50 Euro und mehr kosten kann, ist dies sehr preiswert.

Weil erst in einer Woche die Mo-Do CD's wieder überschrieben werden, kann man auch noch hier auf einen täglichen Stand zurückgreifen, falls nötig. Es könnte ja sein, dass man am Freitag eine Version von Montag oder Dienstag nochmal benötigt. Erst nach einer Woche kann man nur noch auf den alten Freitags-Zustand zurückgreifen, weil der permanent gesichert ist.

Ein Rückgriff auf wöchentliche Zwischenstände reicht für viele Einsatzfälle aus.

Auch wer diese häufige Backupfrequenz nicht benötigt, kann trotzdem von diesem Verfahren in leicht abgewandelter Form Gebrauch machen. Man hat dann ebenso einen Set von wiederbeschreibbaren Medien, z.B. 3-10 Stück. Diese werden der Reihe nach rotierend genutzt. Ist man bei der letzten wiederbeschreibbaren CD angekommen, nimmt man eine einmal Beschreibbare und sichert permanent.

Ein Wort zu wiederbeschreibbaren CD's: Sie sind eigentlich falsch entworfen für einen sinnvollen Praxiseinsatz. Sie müssten eigentlich wie eine Diskette in einer ordentlichen Hülle untergebracht sein, wo das Medium immer gegen äußere Einflüsse geschützt ist (Fingerabdrücke, Kratzer). Man hat ja früher auch nicht die lose Magnetscheibe einer Diskette ins Laufwerk befördert.

So etwas gab es auch schonmal: Sogenannte Caddys, in denen die CD's eingelegt wurden. Diese hat man dann zusammen ins Laufwerk eingeschoben. Das war aber wiederum für normale CD's nicht sehr praktikabel, weshalb solche Laufwerke wieder vom Markt verschwunden sind.

Das Problem ist vor allem, dass Fingerabdrücke vor dem neuen Brennvorgang problematisch sind. Eine CD, die nur einmal beschrieben wird, ist normal völlig sauber und kratzerfrei. Spätere Fingerabdrücke und kleinere Kratzer sind unproblematisch, weil die Information schonmal sauber auf die Scheibe gelangt ist. Sind jedoch vor dem eigentlichen Brennvorgang schon Fingerabdrücke auf der CD, wird unsauber oder unvollständig gebrannt. Das ist das große Problem bei wiederbeschreibbaren Medien.

Es gilt also hier, sehr vorsichtig mit umzugehen, Fingerabdrücke mit einem weichen Brillenputztuch zu entfernen und Rohlinge auszusondern, die Kratzer enthalten. Bei guter Pflege halten wiederbeschreibbare Rohlinge jedoch durchaus 2-3 Jahre. Man muss sich halt nur große Sorgfalt angewöhnen.

Auch bei einmal beschreibbaren Rohlingen muss natürlich vor dem Brennen äußerste Sorgfalt gewahrt werden. Mir ist aufgefallen, dass vielen dieser sorgsame Umgang nicht bewusst ist.

Das oben beschriebene Verfahren lässt sich auch noch so abwandeln, dass man für Mo-Do USB-Sticks einsetzt. Seit es 4-8GB Sticks gibt, die das gleiche Fassungsvermögen wie DVDs haben, ist dieses Verfahren recht beliebt geworden. USB-Sticks sind im Alltag einfach praktischer, als die empfindlichen wiederbeschreibbaren DVDs.

Datensicherungen müssen getestet werden - das ist ein weiterer wichtiger Grundsatz. Sie würden nicht der erste sein, der immer brav seine Datensicherung macht und im Fehlerfalle merkt, dass er seit 3 Jahren irgendwas, aber nicht seine Daten gesichert hat.

Eine Maßnahme ist, regelmäßig Datensicherungen zu nehmen und sie zurückzuspielen. Und hier zu untersuchen, ob auch wirklich alle wichtigen Daten gesichert wurden. Gleichzeitig sollte man stichprobenartig Dateien öffnen und überprüfen, ob sie in Ordnung sind. Besonders gut eignen sich hierfür gezippte Dateien, weil dort eine Prüfsumme abgelegt ist. Ist auch nur ein Bit darin verkehrt, wird eine Fehlermeldung während des Entpackens ausgegeben. Ähnlich ist es bei verschlüsselten Dateien, die bei Bitfehlern sich nicht korrekt entschlüsseln lassen. Grobe Bitfehler würde man auch in Bildern oder MP3-Dateien erkennen können.

Officedokumente hingegen sind oft Künstler darin, Fehler zu verbergen. Obwohl die Datei fehlerhaft ist, wird man nicht darüber informiert und das Programm tut so, als wäre alles in Ordnung. Es ist also ein Trugschluß, zu meinen, alles wäre in Ordnung, nur weil man ein Word-Dokument auch öffnen kann.

Dieses Testen der Datensicherung dient auch dazu, das eigene Vertrauen in die Backuplösung zu stärken. Erst dann, wenn man regelmäßig Datensicherungen mit Erfolg zurückspielt und es zu keinen Komplikationen kommt, kann ein Vertrauen in das Funktionieren der Gesamtlösung entstehen. Dieses Vertrauen braucht es, will man sich mehr und mehr auf die Computertechnik verlassen und ihr wichtige Daten anvertrauen.

Beim Zurückspielen von Sicherungen sollte man auch ältere Medien von Zeit zu Zeit testen. Damit bekommt man ein Gefühl dafür, wie gut die Datensicherheit auch auf längere Sicht funktioniert. Treten hierbei Fehler auf, müssen alte Medien schnellstmöglich umkopiert werden. Diese Probleme sollten aber erst nach 10-20 Jahren auftreten, bei nahezu allen herkömmlichen Backup-Medien. Richtige Lagerung vorausgesetzt.

Eine weitere Maßnahme ist, dass nach dem Backup ein Vergleich stattfindet: Alle Dateien auf dem Backup-Medium werden mit den Originaldaten verglichen - Bit für Bit. Wenn auch nur ein Fehler auftaucht, wird das protokolliert. So etwas sollte eine Backupsoftware auf jeden Fall beherrschen und man sollte das auch bei jedem Backup machen.

Tipp: CDs/DVDs sollte man mit einem anderen Laufwerk prüfen. Manchmal sind Laufwerke dejustiert. Dann kann man zwar mit einem Laufwerk schreiben und auch wieder lesen, die CD lässt sich aber nirgends anders lesen. Geht dann das Sicherungslaufwerk irgendwann mal kaputt, sind alle Datensicherungen damit auch futsch.

Von Zeit zu Zeit muss man überprüfen, ob nicht versehentlicherweise neue Programme installiert wurden, deren Daten nicht mitgesichert werden. Eine Unart auf der Microsoft Plattform (Windows) ist es jahrelang gewesen, dass Daten und Programmdateien in ein Verzeichnis gepackt wurden. Für ein sauberes Backup ist aber gerade die strikte Trennung von Daten und Programmen sehr wichtig. Auch heutzutage gibt es noch viele Software unter Windows, die dies nicht beherrscht oder die man zumindest dahingehend "erziehen" muss. Die Standardeinstellung ist also oft ungünstig, was die Datentrennung angeht.

Auch wenn die meiste Software heutzutage Daten im Verzeichnis des Benutzers speichert, sollte man genauer prüfen, wohin die wichtigen Daten gespeichert werden. Nicht selten kann man sich so auch Backup-Speicherplatz sparen, wenn man nur das sichert was unbedingt benötigt wird. Im Benutzerverzeichnis werden nämlich auch eine Menge temporäre Arbeitsdaten gespeichert, die neu generiert und deshalb nicht mitgesichert werden müssen. Der Hersteller der Software sollte einen darüber informieren, wo alle wesentlichen Daten gespeichert werden. Ein Blick ins Handbuch oder auf die Support-Homepage kann helfen.

Wer sicher gehen will, dass er alle Daten zu einem Programm gesichert hat, probiert auf einem zweiten Rechner aus, ob wirklich alles da ist: Dort installiert man das gleiche Programm und spielt die gesicherten Daten ein. Funktioniert alles, war die Sicherung erfolgreich.

Es ist eine gute Angewohnheit, den Akt der Installation einer Software zu einem besonderen Event zu machen: Nicht mal eben auf die Schnelle was neues installieren. Vielmehr sich Zeit nehmen, genau prüfen, was wohin abgelegt wird und Daten-Verzeichnisse ggf. anpassen. Während der Neuinstallation sollte schon alles bedacht werden, was für den langfristigen Einsatz wichtig ist. Die Datensicherung spielt dabei eine wesentliche Rolle.

Sinnvoll ist es, alle Daten nach Möglichkeit an einem Ort zu speichern. Ideal, wenn man hierfür eine separate Partition der Festplatte einrichtet. Hier hat man ein Basisverzeichnis, z.B. "Daten", unterhalb dessen alle Daten mit entsprechender Verzeichnisstruktur abgelegt werden. Dann muss man nämlich bei der Datensicherung nur noch dieses eine Verzeichnis sichern. Allerdings sollten hier nur solche Daten hineinkommen, die nicht zu speicherintensiv sind, damit diese Sicherung noch auf eine DVD/CD passt. Ich hatte ja oben schon geschrieben, dass wir für speicherintensive Daten eine andere Sicherungsstrategie wählen müssen.

So wäre eine Ideal-Installation. Leider vermiesen Programme und auch das Betriebssystem uns diese Freude. Denn es gibt Programme, die lassen sich beim besten Willen nicht dazu erziehen, ihre Daten nach unseren Vorstellungen abzulegen. Bei Windows 2000 und XP müssen wir z.B. den Ordner "Dokumente und Einstellungen" mit sichern, weil dort viele Programme ihre Daten ablegen. Auch sind dort wichtige Betriebssystem-Daten abgelegt. Unter Windows Vista und Windows 7 ist es der Ordner Benutzer.

Und dann gibt es immer noch einige Programme, die wollen einfach in ihrem Installationsverzeichnis unbeirrbar Daten ablegen. Diese müssen wir dann alle erfassen, dürfen nichts vergessen. Das Backup-Programm muss hierfür sorgsam eingerichtet werden. Evtl. dokumentiert man auch außerhalb des Backup-Programms, was auf einem Rechner gesichert werden muss.

Was Backup-Programme genau machen, sollte man auch studieren. Es gibt da zahlreiche Fallstricke. So ist es bei Norton Backup z.B. so, dass nur Dateien mit bestimmten Dateiendungen gesichert werden. Man kann diesem Programm nicht beibringen, alles zu sichern. Für mich unbegreiflich, wie man auf so eine gefährliche und fehleranfällige Lösung zurückgreift. Bei Backup MyPC werden .qic Dateien nicht mitgesichert, also Datensicherungen, die mit Backup MyPC erstellt wurden. Auch dies kann gefährlich werden, wenn man eine mehrstufige Sicherung macht und unbedingt .qic Dateien mit gesichert haben will. Bei älteren Versionen von diesem Programm gab es zudem diese Einschränkung nicht.

Einen schönen Fallstrick hat man auch bei verschlüsselten truecrypt-Containern, die gesichert werden sollen. Es gibt Sicherungs- oder Synchronisierprogramme, die nur die neuen Dateien sichern, also jene, die sich seit der letzten Sicherung verändert haben. Nun hat truecrypt in der Standardeinstellung die Angewohnheit, das Datum der Containerdatei nie zu aktualisieren. Damit niemand weiß, wann man zuletzt auf diesen Container zugegriffen hat. Was eigentlich gut gedacht war, wird hier zum Problem. Diese Container werden nämlich nie mehr als verändert erkannt und somit auch nicht mitgesichert.

Wie schafft man es nun, seinen aktuellen Datenbestand so klein zu halten, dass man ihn regelmäßig auf eine DVD sichern kann? Das Zauberwort heißt Archivierung.

Archiverung von Datenbeständen

Es gibt Dateien, mit denen wir jeden Tag arbeiten, z.B. ein Fahrtenbuch. Auch der Terminkalender wird regelmäßig mit neuen Daten gespeist und seine Datenbasis ändert sich fortlaufend.

Andere Dateien sind einmal erstellt und werden sich nie wieder ändern, z.B. Fotos, Videos oder Musikdateien.

Diese Unterscheidung ist zentral für eine gute Datensicherungs-Strategie. Denn wir brauchen nur das regelmäßig zu sichern, was sich auch ständig verändert. Alles andere braucht nur einmal hinreichend gesichert zu sein. Dann brauchen wir hier keinen Datensicherungsaufwand mehr zu betreiben.

Bei der Archivierung geht es darum, aus dem Datenbestand, der regelmäßig gesichert wird, all das auszulagern, was sich nicht mehr verändert. Oder wo zumindest zu vermuten ist, dass man längere Zeit nicht mehr dran arbeiten wird.

Hundertprozent kann das nie funktionieren, weil man seine Ordnerstrukturen nicht auseinandereißen möchte. Und doch lässt sich z.B. einmal jährlich vieles aussortieren und in einen Archivbereich auslagern.

Der Archivbereich kann eine separate Partition sein. Auf diesen hat man zwar weiterhin permanent Zugriff, man verändert dort aber niemals irgendwelche Daten. Hier lassen sich dann abgeschlossene Projekte, alte Mails, Bilder, Musik, Videos auslagern. Man dünnt damit sozusagen seinen aktuellen Datenbestand aus, der regelmäßig gesichert wird.

Die Archivierung sollte zu festgelegten Zeitpunkten erfolgen und nicht mal so zwischendurch. Denn nach jeder Archivierung gilt: Der Datenbestand des Archivs hat sich verändert und muss so auch wieder gesichert werden. Bei einem Archiv hat man in der Regel größere Datenmengen, weshalb man hier die Strategie der Sicherung großer Datenmengen anwenden muss. Also z.B. eine verteilte Sicherung auf mehrere Festplatten.

Nach der Archivierung hat man nun also seinen aktuellen Datenbestand ordentlich reduziert und hat gleichzeitig auch wieder mehr Ordnung in den Verzeichnisbäumen, die regelmäßig genutzt werden. Diese Verschlankung wirkt sich so auch positiv auf den schnellen Zugriff aus. Alles wird wieder überschaubarer.

Alles, was im Archiv liegt, wurde auch hinreichend verteilt gesichert, so dass auch hier Verluste abgesichert sind.

Was aber, wenn an archivierten Projekten nochmal gearbeitet werden muss? Keinesfalls arbeitet man an den Daten im Archiv direkt. Das würde das Konzept kaputt machen. Man verschiebt vielmehr das Projekt aus dem Archivbereich wieder in den aktuellen Datenbestand. Hier kann man dann nach Belieben erneut dran arbeiten, um es irgendwann mal wieder in den Archivbereich zu schieben. Zu einem Zeitpunkt, wo man seinen aktuelen Datenbestand entschlackt.

Bei Anwendungsprogrammen, die ihre Daten selber verwalten, muss man auch Möglichkeiten finden, wie man alte Daten archivieren kann. Ein typisches Beispiel wäre das Mailprogramm. Hier wäre es sinnvoll, ältere Mails ins Archiv verschieben zu können. So sind sie nicht verloren und sollte der seltene Fall eintreten, dass man nochmal darauf zurückgreifen muss, wäre dies über das Archiv möglich.

Viele Anwendungsprogramme danken einem diese Entschlackung mit schnelleren Zugriffszeiten auf die Daten. Große Datenmengen machen Systeme auf vielen Ebenen langsamer.

Tipp: Die eigentlichen Mails verbrauchen oft gar nicht so viel Speicherplatz, so dass man durchaus den Mailverkehr der letzten 5 Jahre im aktuellen Datenbestand halten kann. Was aber jede Menge Platz braucht, sind die Anhänge, die man oft gar nicht mehr braucht, weil man sie sowieso schon archiviert hat. Und die Anhänge, die an gesendeten Mails hängen, hat man ja sowieso noch irgendwo auf der Festplatte. Es gibt bei Mailprogrammen oft die Möglichkeit, Anhänge über viele Mails automatisch abtrennen zu lassen. Auch das kann zu Zeitpunkte machen, wo man seinen Datenbestand aufräumt.

Imaging Programme - die andere Art von Backups

Wenn ich bisher von Backups gesprochen habe, meinte ich vor allem die Sicherung der Daten. Die Sicherung von Daten ist das Wichtigste, das Wesentliche.

Es gibt jedoch auch Gründe, die komplette Programminstallation zu sichern. Wenn die Festplatte eines Computers den Geist aufgibt, dann kann eine komplette Neuinstallation aufwändig werden.

Diesbezüglich gilt natürlich: Von jedem installierten Programm sollte man das Original-Installationspaket auf CD/DVD vorrätig haben. Gerade bei Softwarepaketen, die man sich Online herunterlädt, wird oft geschlampt.

Nur wenn man alle Installationspakete vorrätig hat, kann man einen Computer wieder so einrichten, wie er vor dem Ausfall eingerichtet war. Was aber erst mühsam wieder geschaffen werden muss, sind die ganzen Einstellungen der Programme, die man im Laufe der Zeit angepasst hat.

Eine komplette Neuinstallation eines Computers kann aufwändig sein, bestenfalls ist man an einem Tag damit durch. Bei aufwändig eingerichteten Computern mit viel Software kann das aber auch mal 1 Woche beanspruchen. Und die Konfiguration von Details beschäftigt einen dann nebenläufig weitere Wochen.

Hier zeigt sich, dass es sich lohnt, ein komplettes Abbild der Festplatte zu sichern. Wenn man dieses hat, kann man auch nach einem Festplattenausfall den Computer in den gleichen Zustand versetzen, wie zum Zeitpunkt dieser Sicherung. Denn alles, was der Computer permanent speichert, ob Daten oder Programme, ist auf der Festplatte. Hat man dies alles in einem sogenannten Image (Abbild) gespeichert, kann man in 10-30 Minuten dieses wieder auf eine Festplatte aufspielen und damit alles restaurieren. Es ist sozusagen ein Vollbackup des kompletten Computers.

Tipp: Ein solches Abbild der gesamten Festplatte kann so gleichzeitig auch Sicherung seines Archivs sein. Man hat also nur 2 Backupstrategien: Die tägliche Datensicherung des aktuellen Datenbestands auf DVD und z.B. die jährliche Archivierung mit nachfolgender Sicherung der kompletten Festplatte. Diese Komplettsicherung ist sowohl Archivsicherung wie auch Programmsicherung des eingerichteten Computers.

Image-Programme speichern in der Regel ganze Festplattenpartitionen. Ein Festplatte kann ja in mehrere Partitionen unterteilt sein, die unter Windows als einzelne Laufwerke auftauchen. Man kann auswählen, ob man alle Partitionen sichern möchte oder nur bestimmte.

Hier macht es sich auch wieder bezahlt, wenn man günstig partitioniert hat. 3 Partitionen bieten sich an: Die erste für alle Programme, die zweite für alle Daten und die dritte für temporäre Zwecke. Letztere sollte nicht zu klein sein. Sie wird in der Regel nicht mit gesichert, kann aber gut dazu verwendet werden, Festplatten-Images der ersten beiden Platten vorübergehend aufzunehmen. Später speichert man solche Images sinnvollerweise auf externe Festplatten.

Typische Programme dieser Kategorie sind Norton Ghost, Acronis True Image, Paragon Backup & Recovery, Driveimage XML oder die freie Software Partimage, Clonezilla oder Partclone.

Programme dieser Kategorie bieten sich an, um in längeren Zeitabständen Komplett-Sicherungen des Systems zu machen, z.B. alle halbe Jahre oder nach größeren Veränderungen der Installation. Sie sind aber weniger geeignet, um regelmäßig Datensicherungen zu machen.

Ideal sind solche Komplett-Sicherungen des Systems auch dann, wenn das System durch Viren verseucht wurde. Dann kann man recht schnell auf einen vorangegangen Stand wieder aufsetzen, der noch virenfrei war.

In der letzten Zeit zeigt sich ein Trend, das Anbieter solcher Image-Lösungen auch die permanente Datensicherung auf dem Computer übernehmen wollen. Hierfür wird zuerst ein Image vom gesamten Festplatteninhalt gemacht und dann nur noch Veränderungen permanent weggesichert. Für manch einen kann das ein praktikabler Weg sein. Vorteil ist die Einfachheit des Verfahrens. Man muss sich keine Gedanken über die Trennung von Daten und Programmen machen. Man kann mit dem Backup recht schnell wieder den ganzen Computer gangbar machen, weil einfach alles gesichert wird. Man möchte den Anwender sozusagen völlig von allen Gedanken über Datensicherung entlasten: "Du brauchst dich um nichts zu kümmern und nichts einzurichten, ich sichere dir einfach alles automatisch, was sich irgendwo ändert."

Nachteil ist, dass man sehr große Backups erzeugt. Die Verwaltung mehrerer Computer wird so recht speicherintensiv. Die Erhöhung des Sicherheitsstandards ist nur schwierig möglich. Eine Hauptplatte und eine externe Backupplatte als Gesamt-Backupsystem hat eine gewisse Anfälligkeit gegenüber verschiedensten Bedrohungs-Szenarien. Daten werden zudem oft nicht verschlüsselt auf externe Datenträger abgelegt. So richtig ausgereift sind viele Lösungen nicht. Nervig können auch die Hintergrundprozesse sein, die permanent Daten sichern und einem Systemleistung rauben. Wer oft aufwändige Programme installiert und deinstalliert, muss bedenken, dass all diese Installationen mitgesichert werden und damit ganz schnell die externe Festplatte vom Speichervolumen überfordern.

Apple hat mit seiner Software Time Machine diesen Trend sicherlich mit beflügelt. Ich bin eher skeptisch und sehe zu viele Nachteile in dieser kombinierten Backup-Strategie, bei der man Programm-Installationen und die eigentlichen Daten nicht voneinander trennt. Gerade auch, was die Langzeit-Archivierung angeht. Man könnte es auch als ein schmutziges Backup bezeichnen, bei dem man jede Menge Müll mitsichert.

Images des kompletten Computers sollte man in regelmäßigen Abständen machen, z.B. jährlich. Typischerweise landet so ein Image auf einer externen Festplatte, am bestn in einem verschlüsselten Truecrypt-Container. Und weil eine Festplatte auch kaputt gehen kann, sollte eine Kopie auf eine zweite Festplatte. Dies lässt sich recht leicht über Synchronisiersoftware erledigen. So hält man 2 Backupfestplatten regelmäßig synchron. Beide Backupplatten lagert man am besten an getrennten Orten.

Backup-Dokumentation

Backups müssen dokumentiert werden, sonst verliert man schnell den Überblick. Es fallen ja eine Menge Backup-Medien an, wo wir wissen müssen, was darauf enthalten ist.

Wichtige Angaben auf einem Medium sind:

  • Datum des Backups
  • Was wurde gesichert (Rechnername, Backupidentität z.B. Daten Firma X)
  • Backupverfahren (benutztes Programm, Format)
  • Eindeutige Seriennummer (hierüber kann man jedes Medium eindeutig identifizieren)

Über die eindeutige Seriennummer kann man dann ein Logbuch führen, in dem vermerkt ist, welche Backups wann gemacht wurden und wo sie sich räumlich befinden. Damit behält man den Überblick. Werden Medien vernichtet, wird das hier ebenfalls vermerkt. Ein Logbuch kann im einfachsten Fall mittels einer Excel-Tabelle erstellt werden, wobei man z.B. eine 4-stellige Seriennummer vergibt.

Qualität des Backup Mediums

Es gibt große Qualitätsunterschiede, was CD's und DVD's angeht. Hier muss man auf entsprechende Qualität achten. Billige CD-Rohlinge haben oft keine Lackschicht, die die empfindliche Trägerseite schützt. Diese sind dann mechanisch sehr empfindlich. Auch kann es sein, dass billige Rohlinge schlecht gefertigt sind und man dann mit Datenausfall rechnen muss.

Wo es um so etwas wichtiges wie Backup geht, sollte man nicht auf den Cent schauen. Zumal selbst Markenrohlinge heutzutage sehr günstig geworden sind.

Wie lange eine CD wirklich hält, kann man nur abschätzen. Wer auf Nummer sicher gehen will, sollte mindestens 2 verschiedene Sorten mit einer unterschiedlichen Trägerschicht einsetzen, die man abwechselnd benutzt. So streut man das Risiko, falls sich doch irgendwann ein bestimmter Träger als nicht langlebig herausstellt.

Große Markenhersteller sind z.B. TDK, Verbatim, Sony, Ricoh, Philips, Fuji, Maxell, Platinum, BASF, Intenso, Imation, Emtec, Panasonic. Man muss hier auch schauen, welche Medien zu welchem Brenner passen. Mitunter findet man Aussagen dazu in der Anleitung oder in Tests großer Computerzeitschriften.

Aufbewahrung von Backup-Medien

Backup-Medien können zum größten Schatz werden, den man hat - im Falle, dass die Festplatte mal kaputt geht. Dann nützt uns eine CD nichts, die voller Kratzer ist und die damit nicht mehr von unserem CD-Rom entgegengenommen wird.

Backup Medien müssen also gut gelagert werden. Hierzu einige Hinweise:

  • Dunkel lagern - Egal ob CD, DVD oder Bänder, nahezu alles ist empfindlich gegenüber UV-Strahlung der Sonne. Gerade CD's sind sehr anfällig gegenüber Sonnenlicht, werden sie doch mittels eines optischen Verfahrens gebrannt. Eine CD, die man 4 Wochen in praller Sonne gelagert hat, kann schon unbenutzbar sein. Man tut also gut daran, sie dunkel zu lagern.
  • Lagertemperatur 15-20 Grad. Bei CD's ist das sicherlich nicht ganz so kritisch und man kann sie bei normalen Raumtemperaturen lagern. Man sollte sie jedoch nicht z.B. im Auto lagern, wo einerseits große Temperaturunterschiede wirken und auch extreme Temperaturen erreicht werden.
  • Mechanisch nicht belasten. CD's können sich verformen, wenn man sie mechanisch belastet. Verbogene CD's können dann nicht mehr gelesen werden. In Hardcovern sind CD's gut geschützt, nehmen aber auch viel Raum ein. Es gibt jedoch auch Hartplastik-Archiviercontainer, wo z.B. 60 CD's hineinpassen und wo genügend Stabilität da ist. Eine solche Box ist dann etwa 20 cm breit. Für Backups, an die man ja in der Regel nicht oft ran muss, kann man auch Spindeln verwenden, wie man sie bei Rohlingen zu kaufen bekommt. 25er Spindeln sind dabei ein guter Kompromiss, um die Last auf die unterste CD nicht zu groß werden zu lassen.
  • Richtige Beschriftung. Für CD's nur speziell zugelassene Filzschreiber verwenden. Sonst besteht die Gefahr, dass die Oberfläche angegriffen wird.
  • Mechanisch geschützt. CD's können zwar einiges vertragen, mitunter sind sie aber auch recht empfindlich. Besonders wenn die Beschriftungsseite zerkratzt wird. Ein Druck mit dem Fingernagel oder einem spitzen Gegenstand kann schon ausreichen, um die Trägerschicht kurz darunter zu zerstören. CD's sollte man also immer sofort nach Gebrauch wieder sorgfältig wegpacken. Beim Einlegen einer CD ins Laufwerk muss man auch aufpassen. Eine einfahrende Schublade kann die CD beschädigen, wenn sie nicht richtig eingelegt ist.
  • Trocken lagern. Es sollte klar sein, dass man Backup-Medien nicht in einer feuchten Umgebung lagert. Normale Innenraumverhältnisse sollten jedoch unproblematisch sein.
  • Vorsicht vor magnetischen Einflüssen. Bei Streamer-Kassetten, Disketten und Festplatten gilt, sich in acht zu nehmen vor allem, was magnetisch ist. Das können Dauermagneten sein, wie sie z.B. in Motoren und Lautsprechern vorkommen. Überall, wo Strom fließt, können ebenfalls hohe magnetische Felder entstehen. In der Nähe von elektrischen Geräten sollte man Backups also nicht lagern. Für magnetische Medien ist die Lagerung in Stahlbehältern oder Stahlschränken günstig, weil die magnetische Felder abschirmen. Sie sollte selber aber nicht magnetisiert sein. Für den Hausgebrauch sind auch magnetische Blechdosen geeignet.
  • Sicherer Ort. Backups müssen an einem sicheren Ort gelagert werden, weil sich darauf wichtige Daten befinden, die nicht in falsche Hände kommen sollen. Das gilt besonders dann, wenn sie nicht verschlüsselt sind.

Datenschutz und Verschlüsselung

Backups sind eine feine Sache, weil man seine wichtigen Daten so mehrfach auf Backupmedien verfügbar hat. Das kann aber auch zum Problem werden, wenn man z.B. ein Backup-Medium mal verliert.

Ich habe mal eine äußerst unangenehme Erfahrung machen dürfen. Ein wichtiges Backup hatte ich ins Auto gepackt, um es an einem anderen Ort zu lagern. Weil ich jedoch nicht gleich dazu kam, packte ich die Kassette erstmal unter den Sitz. Dort sollte sie ein wenig sicher vor Sonneneinstrahlung und Diebstahl sein. Leider vergaß ich die Kassette damit auch. 2 Monate später verkaufte ich das Auto. Durch Zufall erinnerte ich mich daraufhin an die Kassette und schaute auch nochmal in meiner Dokumentation nach. Ich war ganz sicher, dass diese Kassette noch im Auto lag. Das Auto war aber bereits seit zwei Tagen beim neuen Besitzer. Die Kassette war unverschlüsselt, hatte lediglich ein leicht knackbares Passwort. Ich wurde kreidebleich, dieser Umstand hatte mich doch ziemlich mitgenommen. Ein Anruf beim neuen Besitzer konnte dann recht schnell klären, dass die Kassette tatsächlich gefunden wurde. So kam ich dann glücklicherweise recht schnell wieder in den Besitz.

Aus den unterschiedlichsten Gründen kann es sehr unangenehm werden, wenn Daten in falsche Hände geraten. Firmen sind ja z.B. auch dazu gezwungen, hier genügend Sorgfalt zu wahren, wenn es z.B. um Kundendaten geht. Letztens hörte man in der Presse, dass von einer Firma Millionen von Kreditkartendaten geklaut wurden. Man muss das Thema Datenschutz also sehr ernst nehmen.

Ein schlechter Datenschutz ist schlimmer, als gar keiner! Dies ist ein wichtiger Grundsatz. Denn ein Passwort gaukelt einem vor, dass Sicherheit vorhanden ist, wo man in Wirklichkeit nur ein müdes Lächeln von einem Angreifer erntet. Passwörter in Office-Dokumenten sind ein schönes Beispiel. Im Internet gibt es für jeden Programme zum Download, womit man diese in Sekunden aushebeln kann.

Mit solchen billigen Möglichkeiten kann man also maximal einen unerfahrenen neugierigen Mitarbeiter außen vor halten, aber nicht wirklich seine Daten schützen.

Leider beinhalten auch viele Backupprogramme nur einen sehr primitiven Schutz und keine echte Verschlüsselung.

Und genau diese braucht es: Echte Verschlüsselung nach einem Algorithmus, der als sicher gilt geschützt mit einem ausreichenden Passwort. Ohne jetzt zu tief einzusteigen, was ein sicheres Passwort ausmacht: Sichere Passwörter sollten eine Mindestlänge von 16-20 Zeichen haben und keine Wörter enthalten, die man durch Wörterbuch-Attacken herausfinden kann.

Beim Thema Verschlüsselung kommt eine weitere Schwierigkeit auf uns zu: Wir dürfen uns nicht selber aussperren. Die besten Backups sind nichts mehr wert, wenn wir das Zugangspasswort vergessen. Bei wirklich harter Verschlüsselung gibt es kein Hintertürchen und selbst die beste Datenrettungsfirma ist nicht in der Lage, an unsere Daten zu kommen. Wollte man systematisch die Verschlüsselung knacken, so bräuchte ein heutiger leistungsfähiger Personalcomputer Millionen von Jahren. Echte Verschlüsselung ist ein ganz anderes Kaliber, als die gewöhnlichen passwortgeschützten Daten in Anwendungsprogrammen.

Ein sicherer Verschlüsselungsalgorithmus ist z.B. AES. Ein freies und weit verbreitetes Programm, welches Festplatteninhalte sicher verschlüsseln kann, ist Truecrypt. Auch manche Packwerkzeuge beherrschen es, gepackte Archive z.B. mit AES zu verschlüsseln. Die Integration von solchen Verschlüsselungswerkzeugen ins Backup ist mitunter nicht ganz einfach. Es ist zu hoffen, dass Hersteller von Backupsoftware hier besser ihre Hausaufgaben machen.

Zusammenfassend kann man sagen, dass Verschlüsselung von Backups einerseits sehr wünschenswert wäre, dies aber nicht immer einfach umzusetzen ist. Truecrypt und Packprogramme wie 7-zip können eine gute Basis sein und sind kostenlos verfügbar. Mitunter unterstützen auch diverse Backupprogramme direkt eine Verschlüsselung, so z.B. Acronis True Image. Während freie Software von vielen auf korrekte Implementierung überprüft werden kann, muss man sich bei Closed-Source Programmen darauf verlassen, dass der Hersteller keine groben Fehler in der Implementierung gemacht hat.

Backupsoftware

Was sollte eine gute Backupsoftware können? Will man der Strategie folgen, regelmäßig den kompletten aktuellen Datenbestand auf DVD oder USB-Stick zu sichern, wäre Folgendes wünschenswert:

  • Einrichtung von Backupaufträgen, die definieren, was wie und wohin gesichert werden soll.
  • Ausschlußlisten, was in einem Pfad nicht gesichert werden soll.
  • Sicherung direkt auf DVD oder auf beliebige Datenträger
  • Komprimieren der zu sichernden Daten, um möglichst viel Daten auf den begrenzten Platz einer DVD zu bekommen.
  • Verschlüsselung der Datensicherung
  • Nach Sicherung Bit-für-Bit Überprüfung, ob Sicherung korrekt
  • Wenn einmal eingerichtet, dann möglichst einfache und sichere Benutzung
  • Erstellung von Logdateien, was wann gesichert wurde und wo Fehler auftauchten
  • Möglichst hohe Sicherungsgeschwindigkeit
  • Einfache Möglichkeit der Wiederherstellung
  • Überprüfung der Konsistenz von Sicherungsdatenträgern
  • offene Datenformate der Sicherungsdatei, die schon lange etabliert sind und von freien Werkzeugen auf unterschiedlichen Plattformen unterstützt werden.

Grundsätzlich kann man sich als Systemadministrator seine Lösung aus Einzelwerkzeugen selbst zusammenbasteln. Ein Packprogramm wie pkzip, 7zip, gzip, tar ist schonmal eine wichtige Grundlage für ein Backup. Skriptsprachen sind das Bindeglied, um aus diversen Komponenten eine Gesamtlösung zu stricken.

Generell gilt für Backups: Man sollte konservativ sein und nur Formate verwenden, die weit verbreitet und schon länger im Einsatz sind. Und die Formate sollten von mehreren Werkzeugen unterstützt werden und nach Möglichkeit offen dokumentiert sein. Denn ein Backup nützt nichts, wenn man kein Werkzeug mehr hat, um es zu entpacken, weil vielleicht ein Hersteller pleite ist und die eigene Software-Kopie abhanden gekommen ist. Dies gilt vor allem für längerfristige Daten-Archivierung.

Wenn man Formate einsetzt, die nur von einem Hersteller unterstützt werden, muss man zumindest dafür Sorge tragen, dass man die eigene Softwarekopie genauso gut sichert, wie die Backups selber. Wird von einem neuen Betriebssystem diese Software nicht mehr unterstützt und gibt es keine neue Version, so muss man noch vor dem Übergang auf ein neues System seine alten Backup-Archive umkopieren, wenn man sie noch braucht. Das kann recht aufwändig sein, von daher sollte man schauen, auf langfristig verfügbare und offene Formate zu setzen.

Pack-Formate, die mit Sicherheit für die nächsten 10-20 Jahre Bestand haben werden und die gut verbreitet sind, findet man in zip, gzip, bzip, tar und tgz.

Ein wichtiges Kriterium für eine Backupsoftware muss sein, dass sie einfach und benutzerfreundlich ist. Und es muss gewährleistet werden, dass man bei der Bedienung so gut wie keine Fehler machen kann. Zumindest, was die tägliche Bedienung angeht. Und hier haben so manche selbstgestrickte Lösungen ihre Probleme.

Eine Lösung, die sich in den letzten 10 Jahren unter Windows gut bewährt hat, ist Backup MyPC. Es ist sehr einfach zu bedienen, einfach zu konfigurieren und läuft problemlos. Mit 50 Euro ist es auch bezahlbar. Die Datensicherung wird zudem nach der Sicherung überprüft. Nach der Prüfung wird ein Protokoll erstellt und auf Fehler hingewiesen. Eine Sicherung ist auf CD/DVD, Streamer, wie auch auf Festplatte oder Memorystick möglich. Leider wird das Programm in den letzten Jahren nur noch wenig gepflegt. Die Entwicklung wurde nahezu eingestellt. Die letzte Version ist aber bis Windows 8 lauffähig. Leider ist mir in den ganzen Jahren nicht ein Programm begegnet, was so ideal meine Vorstellungen eines Backup-Programms abdeckt.

Auch die Wiederherstellung funktioniert hier problemlos und kann auch von nichterfahrenen Anwendern durchgeführt werden.

Ein Problem ist das Datenformat: Es ist proprietär. So erstellte CD's oder Archive auf Festplatten können nur wieder mit BackupMyPC gelesen werden. Das ist wirklich schade. Was ebenso fehlt, ist eine Verschlüsselung der Daten. Zwar kann man die Sicherung mit Passwort schützen, aber das ist relativ leicht knackbar.

Der ehemalige Hersteller von BackupMyPC, die Firma Veritas ist übrigens ein Experte in Sachen Backupsoftware. Sie konzentrierten sich jedoch vor allem auf die Sicherung von Servern im kommerziellen Umfeld. BackupExec, als reine Clientlösung wurde deshalb vor einigen Jahren verkauft und nun von Orlogix unter dem Namen BackupMyPC weiter betreut. Betreut ist die richtige Formulierung, denn eine große Weiterentwicklung gab es in den letzten 10 Jahren nicht.

Es lohnt auf jeden Fall, sich im Bereich Backupsoftware mal umzuschauen und zu testen. In den letzten Jahren sind einige Firmen entstanden, die neue Produkte anbieten. Oft findet man jedoch Software, die einen schlechten Kompromiss wählt. Um den Benutzer zu entlasten, wird lieber alles gesichert, womit dann eine Sicherung auf CD oder DVD nicht mehr möglich ist. Will man seine Datensicherung differenzierter machen, versagen viele dieser Produkte. Ordentliche Datensicherung steht einfach nicht hoch im Kurs und man erreicht damit keinen Massenmarkt.

Insofern haben es Firmen schwer, die zwar vernünftige Lösungen anbieten, die aber nur schwer Kunden finden, weil dem Thema Datensicherung im privaten Bereich nicht die entsprechende Aufmerksamkeit zukommt. So manche Firma, die in den letzten Jahren Lösungen angeboten hat, ist inzwischen wieder vom Markt verschwunden.

Was ist von der eingebauten Backuplösung in Windows 7 zu halten? Ich hatte gehofft, dass Microsoft hier mal ein robustes Werkzeug zur rudimentären Datensicherung mit beilegt. Doch nach einigen Tests konnte ich diese Vorstellung begraben. Es mangelt an vielen Stellen, um es überhaupt irgendwie praktikabel einsetzen zu können. Es erstellt z.B. permanent neue Sicherungen, bis die Datenträger überlaufen, auf dem man sichert. Auf DVD kann es nicht sichern. Eine Möglichkeit, alte Sicherungen zu löschen oder grundsätzlich zu überschreiben, gibt es nicht. Die Robustheit der Anwendung ist auch schlecht, mir ist es öfters passiert, dass Sicherungen nicht wiederherstellbar waren.

Wenn es nur um die Synchronisation von Datenbeständen auf einem externen Festplattenlaufwerk geht, bietet sich die Software FreeFileSync an. Das Prinzip ist einfach. Man legt einen Syncauftrag an, in dem man festlegt, welche Verzeichnisse auf der Hauptfestplatte mit welchen Verzeichnissen einer externen Festplatte synchronisiert werden sollen. Natürlich kann man auch einen USB-Stick zur externen Sicherung verwenden oder ein NAS-Laufwerk. Man kann auch mehrere externe Datenträger rotieren lassen, um die Sicherheit zu erhöhen.

Nach erfolgter Synchronisation hat man eine exakte Kopie der zu synchronisierenden Verzeichnisse. Man nennt diese Synchronisationsform auch >>Spiegeln<<. Wichtig ist, diese Synchronisationsart bei der Einrichtung des Auftrags unter Einstellungen auszuwählen. Damit das schnell vonstatten geht, werden nur die Dateien kopiert, die sich auch seit der letzten Synchronisation verändert haben.

Es gibt unzählige Software zur Synchronisation von Verzeichnissen und ich habe auch bestimmt ein Dutzend ausprobiert. Doch alle hatten irgendwelche Schwächen, so dass sie sich nicht bewährten. Sie waren fehleranfällig, hatten ein kompliziertes Interface oder waren extrem langsam. Als ich FreeFileSync fand, war ich sehr froh, weil das doch sehr positiv aus der Maße heraus stach. Natürlich sollte man sich auch hier am Anfang etwas mit der Logik des Programms beschäftigen.

Macht der Gewohnheit

Oft höre ich, wenn ich nach Backup frage: "Ja, eigentlich wollte ich das ja jede Woche machen. Dann aber... Ich glaube, die letzte Sicherung müsste schon ein halbes Jahr alt sein..."

Das größte Problem von Backups ist, dass es jemanden geben muss, der diese auch regelmäßig macht. Es gibt Menschen, die können das wunderbar. Sie können sich an eine Struktur gewöhnen, z.B. jeden Abend eine Sicherung zu machen. Andere haben damit größte Probleme. Entweder entsteht nie eine Regelmäßigkeit oder sie steigen immer wieder aus einer Regelmäßigkeit aus. Ich gehöre zu letzteren, weshalb ich immer viel Disziplin brauche, um regelmäßige Backups zu machen.

Wichtig ist sicherlich gerade am Anfang, sich an eine Struktur zu gewöhnen. Hat man erstmal eine Gewohnheit entwickelt, geht vieles von allein. Das ist die erste Hürde, die man nehmen muss: Für mindestens 2-3 Monate regelmäßig Backups zu machen.

Gewohnheit wird sich nur einstellen, wenn Backups immer auf die gleiche einfache Art und Weise erstellt werden können. Deshalb ist ein gutes Backupprogramm ganz wichtig. Der zweite Punkt ist, dass man Backups mindestens einmal die Woche macht. Man kann sich nur schwer an etwas gewöhnen, was nur einmal im Monat gemacht werden muss oder noch seltener.

Es kann sinnvoll sein, einige wiederkehrende Sachen zu kombinieren, also nach dem Backup auch gleich ein Komplettscan des Virenscanners anzustoßen oder den virtuellen Papierkorb zu leeren und die Platte etwas aufzuräumen. Auch ein Computer braucht einfach ein wenig Pflege und diese Handgriffe können zusammengefasst werden.

Vernichtung von Datenträgern

Nach einigen Jahren sammeln sich viele Backup-Datenträger an. Dann kann es sinnvoll sein, ein Teil davon auszumustern. Einmal beschreibbare Medien müssen dabei ordnungsgemäß vernichtet werden. Schließlich sind ja wichtige Daten darauf enthalten.

Eine sinnvolle Strategie ist, die einzelnen Jahrgänge auszudünnen. Man behält dann nicht mehr die Backups von jeder Woche sondern nur noch von jedem Monat. So werden aus 52 Backups jährlich nur noch 12. Bei noch älteren Backups reicht es vielleicht aus, nur noch 2-3 Sicherungen eines Jahres aufzuheben. Ein wenig Sicherheit sollte man immer einbauen, falls mal ein Datenträger nicht mehr lesbar ist.

CD's und DVD's vernichtet man am besten, in dem man sie mindestens 2 mal mit einer stabilen Schere (z.B. Blechschere) durchschneidet. Das sollte für mittlere Anforderungen reichen. Eine Wiederherstellung von Teilen wäre nur mit extrem kostspieligen Mitteln wieder möglich. Wer noch sicherer gehen will, muss sie in noch kleinere Schnipsel zerschneiden und Teile der Schnipsel zu unterschiedlichen Zeitpunkten und über unterschiedliche Wege entsorgen. Man sollte dabei immer bedenken, dass auf einem funktionsfähigen Stück CD von 1x1cm Größe immerhin ca. 10 Megabyte an Daten gespeichert sind. Das sind einige tausend Schreibmaschinenseiten. Jedoch kommt man nur mit teuren Spezialmaschinen an solche Information heran.

Es gibt übrigens auch Aktenvernichter, die CDs schreddern können.

Bänder zu entsorgen ist nicht so einfach. Man müsste das Band der Länge nach in viele kleine Teile zerschneiden. Das ist ein enormer Aufwand. Verbrennen erscheint mir die einzig sinnvolle Alternative, die jedoch aus ökologischen Aspekten nicht sehr günstig ist.

Festplatten, die funktionieren, kann man mit professionellen Werkzeugen löschen. Formatieren reicht definitiv nicht aus! Defekte Festplatten, die noch Daten enthalten, sollte man demontieren und die Scheiben mechanisch zerstören. (Vorsicht, manche Scheiben sind aus Glas und zersplittern!) Wer auf Nummer sicher gehen will, sollte das generell machen, auch wenn die Festplatte ordnungsgemäß gelöscht werden kann. Das gilt besonders, wenn sensible personenbezogene Daten darauf enthalten sind.

Professionelle Datenrettung

Hat man nun doch keine Datensicherung von seiner Festplatte und diese ist zwar kaputt aber noch verfügbar, so gibt es die Möglichkeit der professionellen Datenrettung. Ehe man nun noch mehr kaputt macht und dann wirklich nichts mehr zu retten ist, sollte man nun sorgsam vorgehen.

Die Festplatte sollte aus dem Computer ausgebaut werden, wer sich das nicht zutraut, lässt es lieber einen Profi machen. Diese Festplatte bringt man am besten persönlich zu einer Datenrettungsfirma. Es gibt Firmen, die sich darauf spezialisiert haben, defekte Festplatten auszulesen. Sie haben teure Gerätschaften, die die Scheiben in der Festplatte direkt abtasten können.

Solch eine professionelle Datenrettung ist nicht billig. Zwischen 500-1500 Euro muss man mindestens anlegen. In schwierigen Fällen kostet es noch mehr. Die Erfolge sind jedoch oft gut. Selbst Festplatten, die einen Hausbrand überstanden haben, sind oft noch zu retten.

Bedrohungs-Szenarien

  • Brand eines Gebäudes - Alle Daten, die in diesem Gebäude auf Datenträgern aufbewahrt werden, können verloren sein.
  • Überspannung und Elektromagnetische Einflüsse - Elektronik kann durch Überspannung oder elektromagnetische Impulse zerstört werden. Starke magnetische Felder können Festplatten löschen. Blitzeinschläge sorgen für energiereiche elektromagnetische Felder, aber auch z.B. statische Aufladungen. Datenverlust droht.
  • Wasserschäden - Rohrbrüche oder Löschwasser bei einem Brand können Speichermedien zerstören. Tassen können umkippen und Notebooks zerstören. Wird Elektronik sofort spannungsfrei geschaltet, steigt die Chance einer Rettung.
  • Einbruch - Diebstahl diverser Geräte, auf den Daten gespeichert sind. Diese Daten sind einerseits verloren, andererseits können Daten missbraucht werden, wenn sie nicht verschlüsselt sind.
  • Ad-hoc Diebstahl - Alles, was sich schnell und unauffällig mitnehmen lässt, ist bedroht: USB-Sticks, Notebooks, ext. Festplatten, Smartphones. Das kann im Büro oder unterwegs passieren. Neben Datenverlust auch Datenmissbrauch.
  • Festplattendefekt Server - Zentral gespeicherte Daten seit der letzten Datensicherung sind verloren. Oft werden nicht alle Daten gesichert. Nicht gesicherte Daten sind für immer verloren.
  • Festplattendefekt Raid-Verbund - Den Defekt einer Festplatte kann ein entspr. Raid-Verbund ohne Datenverlust verschmerzen.
  • starke Erschütterung Raid-Verbund - Durch Erdbeben, Vandalismus oder Unachtsamkeit kann ein Raidverbund mechanisch so stark erschüttert werden, dass alle Festplatten defekt sind. Dann sind alle Daten seit der letzten Datensicherung verloren.
  • starke Erschütterung ext. Festplatte - Defekt der Festplatte. Datenverlust. Gefährlich ist hier auch das umfallen oder herunterfallen vor allem im laufenden Betrieb.
  • starke Erschütterung Arbeitsplatzcomputer und Notebook - Festplattendefekt mit Datenverlust.
  • USB Stick oder Smartphone verloren - Daten sind verloren. Datenmissbrauch möglich, wenn Daten unverschlüsselt. Gilt auch für sonstige mobile Gerätschaften wie externe Festplatten oder Notebooks.
  • Datensicherung fehlerhaft - Fehler in der Datensicherung können über lange Zeit unbemerkt bleiben. Man wähnt sich in falscher Sicherheit. Oft fällt das Problem erst dann auf, wenn die Sicherung wg. eines Ausfalls dringend benötigt wird.
  • Schleichende Datenzerstörung - Defekte Hardware kann unbemerkt Dateien unbrauchbar machen. Sind Daten betroffen, die längere Zeit nicht genutzt werden, fällt der Schaden nicht auf. Monate oder Jahre später stellt man fest, dass die Daten defekt sind. Hat man dann keinen Rückgriff auf ältere Datenstände, lässt sich der Schaden nicht mehr restaurieren. Die Bereinigung schleichender Datenzerstörung kann sehr aufwändig sein, wenn keine Checksummen verfügbar sind und tausende von Dateien auf Konsistenz geprüft werden müssen.
  • Fehlbedienung - Der Benutzer löscht versehentlich Daten oder verändert sie auf ungewünschte Weise. Ohne Datensicherung sind sie oft nicht mehr zu ersetzen.
  • Fehlerhafte Software - Software kann fehlerhaft sein und bei Zugriff auf Daten diese zerstören. Mitunter kann es sein, dass defekte Datenbestände nicht sofort auffallen, weil keine klare Rückmeldung über Defekte erfolgt.
  • Schadsoftware - Schadsoftware zerstört Daten. Auch schleichende Zerstörung ist möglich. Schadsoftware kann auch Daten abzapfen, Datenmissbrauch wird möglich.
  • Angriff von außen - Über Internet oder WLAN bekommen äußere Angreifer Zugriff auf ein internes Netzwerk und können dort Daten beliebig löschen und manipulieren. Datenmissbrauch.
  • Angriff von innen - Mitarbeiter zerstören mutwillig Datenbestände.
  • Angriff über VPN-Fernzugriff - Ein VPN erweitert ein lokales Netzwerk und erlaubt den Fernzugriff auf dieses. Damit bestehen am Endpunkt des VPN alle Möglichkeiten, die man auch im Haus hat. Von dort können Daten gelöscht, verändert oder gestohlen werden. Auch können diese externen Computer durch Schadsoftware befallen sein. Oder nicht authorisierte Personen verschaffen sich Zugang. Geräte außerhalb eines Firmengebäudes lassen sich in vielerlei Hinsicht nur noch schwer kontrollieren und überwachen.

Zusammenfassung

Hier nochmal in Kurzform, worauf es bei Datensicherung ankommt:

  • Datensicherung ist ein Muss!
  • Regelmäßig Daten sichern, um sich daran zu gewöhnen und im Fehlerfalle ein aktuelles Backup zu haben. Sich immer wieder disziplinieren, regelmäßig Backups zu machen.
  • Einfach zu bedienende Software verwenden, damit Backups nicht wegen Lästigkeit aufgeschoben werden oder sich Fehler beim Backup einschleichen.
  • Backups testen. Öfters mal ein Restore (Wiederherstellung) durchführen und stichprobenhaft überprüfen, ob wichtige Dateien korrekt sind. Auch überprüfen, ob alles gesichert wurde. Ein Backup ist immer nur so gut, wie man es getestet hat. Kein Backup ohne Test!
  • Trennung von Daten und Programmen. Nach Möglichkeit alle Daten separat in einem gemeinsamen Basisordner halten, am besten auf separater Partition/Laufwerk. Bei jeder Programminstallation darauf achten, was gesichert werden muss.
  • CD/DVD Sicherung ist derzeit für viele das Backupmedium der Wahl.
  • Vollsicherung mit sogenannten Image-Programmen z.B. halbjährlich erstellen.
  • Auf Datenschutz achten. Backups sicher aufbewahren und ggf. verschlüsseln.
  • Richtige Lagerung. Dunkel und bei Raumtemperatur. Bei Bändern und Festplatten auf magnetische Einflüsse achten. Bei Festplatten darauf achten, dass sie keinen großen Erschütterungen ausgesetzt sind.
  • Memorystick und externe Festplatten eignen sich in der Regel nicht zur Langzeitarchivierung. Sie sind eher etwas für kurzzeitige Zwischenspeicherung.
  • Hochwertige Backup-Medien einsetzen. Nicht am falschen Ort sparen.
  • Überschreibende Sicherung als Strategie ist gefährlich. Der Datenstand eines beliebigen älteren Zeitpunktes muss zurückholbar sein. Hierfür z.B. wöchentliche Sicherung, die archiviert und nicht überschrieben wird.
  • Räumliche Trennung als wichtige Sicherheitsmaßnahme. Backups sollten an einem anderen Ort aufbewahrt werden, möglichst weit entfernt. So erhält man seine Daten, auch wenn z.B. durch Brand oder Naturkatastrophen Werte vernichtet werden.
  • Dokumentation: Ein Datensicherungslogbuch, in dem die mit Seriennummer archivierten Backupmedien eingetragen werden, kann sehr hilfreich sein, um den Überblick zu bewahren und im Fehlerfall die richtigen Medien parat zu haben. Sinnvollerweise sollte man dieses Logbuch regelmäßig ausdrucken.
  • Entsorgung: Medien müssen fachgerecht entsorgt werden, damit Daten nicht von Dritten wieder hergestellt werden können.

Weblinks

Copyright und Hinweise

Copyright (c) 2005 Winfried Mueller, www.reintechnisch.de

Es wird die Erlaubnis gegeben dieses Dokument zu kopieren, zu verteilen und/oder zu verändern unter den Bedingungen der GNU Free Documentation License, Version 1.1 oder einer späteren, von der Free Software Foundation veröffentlichten Version; mit keinen unveränderlichen Abschnitten, mit keinen Vorderseitentexten, und keinen Rückseitentexten.

Eine Kopie dieser Lizenz finden Sie unter GNU Free Documentation License.

Eine inoffizielle Übersetzung finden Sie unter GNU Free Documention License, deutsch.

In diesem Artikel werden evtl. eingetragene Warenzeichen, Handelsnamen und Gebrauchsnamen verwendet. Auch wenn diese nicht als solche gekennzeichnet sind, gelten die entsprechenden Schutzbestimmungen.

Alle Informationen in diesem Artikel wurden mit Sorgfalt erarbeitet. Trotzdem können Inhalte fehlerhaft oder unvollständig sein. Ich übernehme keinerlei Haftung für eventuelle Schäden oder sonstige Nachteile, die sich durch die Nutzung der hier dargebotenen Informationen ergeben.

Sollten Teile dieser Hinweise der geltenden Rechtslage nicht entsprechen, bleiben die übrigen Teile davon unberührt.