PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Backup Lösung für NAS


paul.muad.dib
2017-03-25, 21:14:37
Hallo Zusammen,

habe bei mir ein einfaches NAS als zentralen Datenspeicher für 2 Laptops, 2 PC, Smartphones, etc.

Auf dem NAS laufen zwei Platten mit jeweils 2 TB Speicher in einem Raid 1 Verbund als rudimentärem Ausfallsschutz. Diesen möchte ich gerne um ein echtes Backup ergänzen. Wichtig ist mit dabei, dass das ganze weitestgehend automatisch abläuft, da ich es sonst nicht regelmäßig mache.

Folgendes Konzept habe ich dazu gemacht und hätte gerne eure Meinung ob das Sinn macht und ein paar Tipps für die Umsetzung:


Backup Dokumente (<10 GB): Da sich hier verschiedene Versionen ergeben können, z.B. Excel Tabellen mit Haushaltsfinanzverwaltung und gleichzeitig das Datenvolumen noch sehr überschaubar ist, würde ich gerne auf beliebig viele Versionen zugreifen können.


Idee: Eine Backupsoftware auf einem Mini Rechner (->Rasberry Pi?) verbindet sich über LAN/WLAN mit dem NAS und erstellt täglich inkrementelle, verschlüsselte (Muss ja nicht jeder meine Steuererklärung einsehen :freak:) Backups in einem Cloudspeicher, z.B. Magenta Cloud.



Backup Fotos (20+ GB):
Für einen kostenlosen Cloud-Speicher ist die Datenmenge wahrscheinlich zu groß, außerdem würde wahrscheinlich auch der Upload mit einer DSL 6000er Verbindung zu lange dauern und andere Sachen blockieren. Auch Datenschutz ist ein Thema, möchte der NSA nicht meine privaten Fotos geben.

Idee: Auf 2-3 weiteren PCs im Haus wird eine automatische Synchronisierung eingerichtet, die alle Bilder auf die jeweilige SSD kopiert. Diese Software sollte automatisch im Hintergrund laufen und nur einen Teil der verfügbaren WLAN-Bandbreite belegen dürfen. Sonst habe ich die Erfahrung gemacht, dass ich die Kopiervorgänge entnervt abbreche, weil ich z.B. einen Film nicht sehen kann. Zusätzlich würde ich 1x im Jahr bei meinen Eltern ein Speichermedium (USB Stick/Speicherkarte) mit entsprechender Kapazität deponieren, damit bei einem Hausbrand Dinge wie Hochzeitsfotos nicht verloren gehen. Risiko ist halt, dass flash Speicher nicht lange haltbar ist und im Zweifel nicht mehr vom USB Stick gelesen werden kann.


Eine Alternative wäre es evtl., einen Blu Ray Brenner zu kaufen und darauf zu sichern, was aber wieder einen recht hohen manuellen Aufwand bedeuten würden. In diesem Falle sollte es wenigstens halbautomatisiert ablaufen, also dass eine Software mich nur noch in regelmäßigen Abständigen auffordert, ein beschreibbares Medium einzulegen.





Backup Videos, Musik, Software, ca. 800-1500 GiB
Hier ist die Grenze für eine Cloud-Sicherung sowohl von den Kosten als auch wegen der Uploaddauer klar überschritten. Außerdem wäre das einiges irgendwie wiederbeschaffbar, wenn auch mit Aufwand verbunden (z.B. CDs neu rippen) oder ein Verlust verschmerzbar.

Idee: ein Rasberry Pie kopiert die Daten automatisch auf zwei im monatlichen Wechsel angeschlossene Festplatten. Manueller Eingriff nur dann erforderlich, wenn es Probleme gibt, oder um die andere Festplatte anzuschließen. Bei der Gelegenheit kann natürlich auch eine zusätzliche Sicherung der Fotos gemacht werden.

Joe
2017-03-25, 21:29:38
Viel zu kompliziert.
Kauf dir ne Synology für deine Daten und nimmt die jetzige NAS als Backup Gerät.

Backup würd ich auch nicht empfehlen zu splitten also die "wichitgen" Sachen wo anders hin als den Rest. Backup sollte immer simpel sein.

Rooter
2017-03-25, 22:19:32
Das mit der Cloud macht bei deiner Leitung gar keinen Sinn! Damit 10GB hochzuladen dauert doch schon über 24 Stunden... ;D

Ansonsten stimme ich Joe zu.

MfG
Rooter

sun-man
2017-03-25, 23:04:57
Heilige Schei....was Du für ein Bohei machen willst nur wegen effektiv 300GB Daten und 800GB ersatzbaren Daten. Rasperry, 2-3 andere PCs....

Warum möchtest Du denn ein externen Backup haben? Sinn macht er - aber warum willst Du einen? Warum kaufst Du Dir nicht einfach ne externe Lösung wie ne Docking Station und 2 billige Festplatten?

Hast Du so viele Änderungen an den Daten das es Sinn macht so einen Aufwand zu treiben? Also machst Du täglich ne Steuerabrechnung? Nen neuen Lebenslauf?

Fotos: Ja, kann man in die Cloud legen - sogar verschlüsselt. Dann gibst halt einmal pro Tag oder einmal pro Woche nen ink. Update ind ie Cloud. Dann halten sich die Datenmengen in Grenzen.

Recht hat auch Joe. Synology und sicher z.B. auch Qnap oder vermutlich auch freie Anbieter haben hier Lösungen. Bei meiner Syno ist das eben HyperBackup Vault. Cloud Backup gibts auch noch, nutze ich aber nicht. Lösche ich aus Versehen Daten hat das NAS einen Papierkorb. HyperBackup sicher bei mir nur ein oder zweimal im Monat auf ne externe Disk. Ich hab keine Angst vor Ausfällen. Das mache ich dann aber von Hand. Disk einschalten, Sicherung starten und halt irgendwann wieder abklemmen.

Simon
2017-03-26, 10:18:07
Backup Videos, Musik, Software, ca. 800-1500 GiB
Hier ist die Grenze für eine Cloud-Sicherung sowohl von den Kosten als auch wegen der Uploaddauer klar überschritten. Außerdem wäre das einiges irgendwie wiederbeschaffbar, wenn auch mit Aufwand verbunden (z.B. CDs neu rippen) oder ein Verlust verschmerzbar.
Na wenn dir 10 Euro im Monat fuer Backup zu viel Geld ist, was soll dann der Aufwand?
Bei einigen Anbietern kann man auch volle Festplatten hinschicken. Dann blockiert auch nix die DSL-Leitung. 600er-Leitung ist Luxus. Ich hab 550GB Backup mit einer 2000er Leitung letzten Dezember gemacht.

Festplatten kosten auch Geld. Ein Raspberry Pi mit Netzteil und so kostet auch Geld. Der Aufwand, dass alles aufzusetzen und administrieren kostet auch.

myMind
2017-03-26, 10:56:00
habe bei mir ein einfaches NAS als zentralen Datenspeicher für 2 Laptops, 2 PC, Smartphones, etc.

Nächstes mal besser ein NAS kaufen, dass eine Backupfunktion integriert hat. Was für ein Gerät ist es denn?

Backup Dokumente (<10 GB):

Idee: Eine Backupsoftware auf einem Mini Rechner (->Rasberry Pi?) verbindet sich über LAN/WLAN mit dem NAS und erstellt täglich inkrementelle, verschlüsselte (Muss ja nicht jeder meine Steuererklärung einsehen :freak:) Backups in einem Cloudspeicher, z.B. Magenta Cloud.

Kann man machen. Ein täglich aktuelles Offsite-Backup ist schon eine gute Sache. Die Erstsicherung wird sehr lange benötigen.

Typischerweise benötigt Backupsoftware die über dünne Leitungen effizient arbeiten soll auf der Gegenseite einen Agenten, der Checksummen berechnen kann. Dummer Cloudspeicher wird da ggf. nicht reichen.

Backup Fotos (20+ GB):

Idee: Auf 2-3 weiteren PCs im Haus wird eine automatische Synchronisierung eingerichtet, die alle Bilder auf die jeweilige SSD kopiert. Diese Software sollte automatisch im Hintergrund laufen und nur einen Teil der verfügbaren WLAN-Bandbreite belegen dürfen. Sonst habe ich die Erfahrung gemacht, dass ich die Kopiervorgänge entnervt abbreche, weil ich z.B. einen Film nicht sehen kann.

Erscheint mir unnötig und unnötig kompliziert. Besser HDDs direkt ans NAS anschließen und dorthin sichern.
Zusätzlich würde ich 1x im Jahr bei meinen Eltern ein Speichermedium (USB Stick/Speicherkarte) mit entsprechender Kapazität deponieren, damit bei einem Hausbrand Dinge wie Hochzeitsfotos nicht verloren gehen. Risiko ist halt, dass flash Speicher nicht lange haltbar ist und im Zweifel nicht mehr vom USB Stick gelesen werden kann.
Letzteres würde ich grundätzlich mit allen Daten machen. Allerdings mit einer normallen HDD. Eine 2TB HDD kostet gerade mal 50€. Selbst wenn Du jedes Jahr eine neue Kaufst, sind das nur 4,2€/Monat.
Backup Videos, Musik, Software, ca. 800-1500 GiB

Idee: ein Rasberry Pie kopiert die Daten automatisch auf zwei im monatlichen Wechsel angeschlossene Festplatten. Manueller Eingriff nur dann erforderlich, wenn es Probleme gibt, oder um die andere Festplatte anzuschließen. Bei der Gelegenheit kann natürlich auch eine zusätzliche Sicherung der Fotos gemacht werden.
S.o.

Haarmann
2017-03-26, 13:33:06
USB Stick am Schlüsselbund und ne SD im Handy... die Videos sind imo eh ned wichtig.

Ansonsten - siehe Joes Lösung

lumines
2017-03-26, 14:30:11
Für einen kostenlosen Cloud-Speicher ist die Datenmenge wahrscheinlich zu groß, außerdem würde wahrscheinlich auch der Upload mit einer DSL 6000er Verbindung zu lange dauern und andere Sachen blockieren. […]

Idee: Auf 2-3 weiteren PCs im Haus wird eine automatische Synchronisierung eingerichtet, die alle Bilder auf die jeweilige SSD kopiert. Diese Software sollte automatisch im Hintergrund laufen und nur einen Teil der verfügbaren WLAN-Bandbreite belegen dürfen. Sonst habe ich die Erfahrung gemacht, dass ich die Kopiervorgänge entnervt abbreche, weil ich z.B. einen Film nicht sehen kann.

Ich kann zum Rest nicht viel sagen, aber speziell dabei gibt es einfache Lösungen. Mit Traffic Shaping in Verbindung mit fq_codel kannst du deine Internetleitung auch dann noch responsiv halten, wenn du gerade etwas hochlädst. Die beste Implementierung ist wahrscheinlich sqm-scripts in LEDE. Ubiquitis EdgeRouter implementieren fq_codel und HTB in Form der "smart queue".

Wenn dein WLAN zusammenbricht, falls irgendein Gerät sendet, dann hat das jeweilige Gerät vermutlich einen schlechten Empfang. Dadurch wird eine niedrigere Datenrate ausgehandelt, was dir deinen anderen Geräten die Airtime klaut, weil das langsamere Gerät länger zum Senden braucht. Lösung: Entweder für insgesamt schnelleres WLAN sorgen oder einen Access Point aufstellen, der Airtime Fairness macht. So werden Geräte mit langsamen Datenraten im WLAN nicht bevorzugt. In LEDE 17.01 ist Airtime Fairness für Hardware integriert, welche vom ath9k-Treiber angetrieben wird. Auch einige Enterprise Access Points von z.B. Ubiquiti oder Ruckus bieten Airtime Fairness.

Wenn man viele Daten über das WLAN schubst (Backup, Film-Streaming) und auch viel ins Internet hochladen will, kann beides sehr nützlich sein.

paul.muad.dib
2017-03-26, 18:00:22
Hallo Zusammen,

schon mal vielen Dank für das zahlreiche Feedback. Die Idee mit dem Pi ist auch irgendwo aus einem Spaß am Basteln entstanden. Klar soll es eine zuverlässige Lösung sein, aber ich finde es faszinierend an etwas zu entwickeln, was dann irgendwann vollautomatisch abläuft, auch wenn es sich vielleicht als Zeitersparnis nicht lohnt.

Die Qnap/Synology Geräte sind mir zu teuer und ich ich befürchte, dass dann irgendeine Funktion fehlt, die ich bräuchte, z.B. das Backup flexibel aus diversen Ordnern und Unterordnern zusammenzusetzen. Daher würde ich bevorzugen, vom NAS nur die reine Datenbereitstellungsfunktion zu nutzen, und alles andere über ein weiteres System zu lösen.


Backup würd ich auch nicht empfehlen zu splitten also die "wichitgen" Sachen wo anders hin als den Rest. Backup sollte immer simpel sein.

Ich würde ja erstmal auch das komplette NAS auf eine Platte sichern, nur eben die wichtigen Sachen nochmal zusätzlich sichern. Am liebsten wäre mir allerdings auch, alles zusammen in irgendeine Cloud zu laden. Nur 2 TB Cloudspeicher kosten eben noch richtig.


Damit 10GB hochzuladen dauert doch schon über 24 Stunden...

Solange es die anderen Prozesse nicht stört, kann es auch eine Woche dauern. Blöd ist nur, wenn ich in der Zeit sonst nichts machen kann oder wenn ich es vom Wohnzimmer PC aus mache, und meine Frau den dann immer ausschaltet :biggrin: oder Windows sich automatisch neu startet, um Updates zu installieren und dann der Backup-Prozess kaputt ist.



Warum kaufst Du Dir nicht einfach ne externe Lösung wie ne Docking Station und 2 billige Festplatten?

Habe ich versucht. Ergebnis ist, dass ich es dann vergessen und über ein Jahr kein Backup gemacht habe. Außerdem ist der Zugriff auf das NAS schwierig. Es gibt verschiedene Benutzerkonten für meine Sachen, die von meiner Frau und gemeinsame Daten. Wenn ich mit meinem Account angemeldet bin, kann ich nur auf meine Sachen und die gemeinsamen zugreifen. Daher war die Idee, ein weiteres Gerät ins Spiel zu bringen, dass sich als Admin anmeldet und auf alles Zugriff hat. Deshalb soll irgendwo in der Ecke ein System stehen, dass alles automatisch macht und sich nur meldet, wenn es Probleme gibt.


Hast Du so viele Änderungen an den Daten das es Sinn macht so einen Aufwand zu treiben? Also machst Du täglich ne Steuerabrechnung? Nen neuen Lebenslauf?

Das eigentlich nicht. Aber das es um so geringe Datenmengen geht und es Software dafür gibt, sehe ich keinen Grund, es nicht so zu machen. Am Ende habe ich sonst doch die eine Version der Datei, die ich bräuchte nicht mehr.



Na wenn dir 10 Euro im Monat fuer Backup zu viel Geld ist, was soll dann der Aufwand?
Bei einigen Anbietern kann man auch volle Festplatten hinschicken. Dann blockiert auch nix die DSL-Leitung. 600er-Leitung ist Luxus. Ich hab 550GB Backup mit einer 2000er Leitung letzten Dezember gemacht.

Festplatten kosten auch Geld. Ein Raspberry Pi mit Netzteil und so kostet auch Geld. Der Aufwand, dass alles aufzusetzen und administrieren kostet auch.

Bei welchen Anbietern geht das mit den Platten und was kostet das? Ansonsten Pi+ NT kostet ~40 Euro, eine Platte ~70 Euro. Aber selbst wenn ich irgendwo einen Cloudspeicher Miete, bleibt das Problem es da hochzuladen. Da es das NAS nicht kann, muss ein PC ständig an bleiben.

Den Aufwand, um es einmalig aufzusetzen, finde ich nicht so schlimm, ist für mich eher ein interessantes Bastel-/Hobbyprojekt. Nur will ich nicht ständig was machen müssen.


Fotos: Ja, kann man in die Cloud legen - sogar verschlüsselt. Dann gibst halt einmal pro Tag oder einmal pro Woche nen ink. Update ind ie Cloud. Dann halten sich die Datenmengen in Grenzen.

Hab nochmal nachgeschaut, in der Größenordnung bis 50 GB gibts das doch schon für ~30 Euro im Jahr auf deutschen Servern. Das fände ich noch in Ordnung, bleibt nur die Frage, wie es hochgeladen werden kann. Ein Pi für 30 Euro wäre halt deutlich günstiger als irgendein Synology für 300.


Nächstes mal besser ein NAS kaufen, dass eine Backupfunktion integriert hat. Was für ein Gerät ist es denn?


DLINK DNS-320

Es hat auch eine Backup-Funktion, Cloud Backup kann es aber nur zu Amazon und dann sind meine Daten beim NSA. Aber ja, im Nachhinein hätte ich besser 60 Euro mehr ausgegeben für ein NAS was mehr kann.


Typischerweise benötigt Backupsoftware die über dünne Leitungen effizient arbeiten soll auf der Gegenseite einen Agenten, der Checksummen berechnen kann. Dummer Cloudspeicher wird da ggf. nicht reichen.


Was käme da in Frage?


Erscheint mir unnötig und unnötig kompliziert. Besser HDDs direkt ans NAS anschließen und dorthin sichern.


Das dachte ich mir ursprünglich auch. Hat aber irgendwie nicht gut funktioniert und geht schnell vergessen, weil es manuell angestoßen werden muss.


Letzteres würde ich grundätzlich mit allen Daten machen. Allerdings mit einer normallen HDD. Eine 2TB HDD kostet gerade mal 50€. Selbst wenn Du jedes Jahr eine neue Kaufst, sind das nur 4,2€/Monat.


Danke, werde ich so machen.


Ich kann zum Rest nicht viel sagen, aber speziell dabei gibt es einfache Lösungen. Mit Traffic Shaping in Verbindung mit fq_codel kannst du deine Internetleitung auch dann noch responsiv halten, wenn du gerade etwas hochlädst. Die beste Implementierung ist wahrscheinlich sqm-scripts in LEDE. Ubiquitis EdgeRouter implementieren fq_codel und HTB in Form der "smart queue".

Wenn dein WLAN zusammenbricht, falls irgendein Gerät sendet, dann hat das jeweilige Gerät vermutlich einen schlechten Empfang. Dadurch wird eine niedrigere Datenrate ausgehandelt, was dir deinen anderen Geräten die Airtime klaut, weil das langsamere Gerät länger zum Senden braucht. Lösung: Entweder für insgesamt schnelleres WLAN sorgen oder einen Access Point aufstellen, der Airtime Fairness macht. So werden Geräte mit langsamen Datenraten im WLAN nicht bevorzugt. In LEDE 17.01 ist Airtime Fairness für Hardware integriert, welche vom ath9k-Treiber angetrieben wird. Auch einige Enterprise Access Points von z.B. Ubiquiti oder Ruckus bieten Airtime Fairness.

Heist das, ich kann diese Problematik mit einem besseren Access Point lösen, indem ich dort einstelle, wie viel Bandbreite ein bestimmtes Gerät bekommen kann? Wie viel müsste ich da investieren?

lumines
2017-03-26, 18:21:57
Heist das, ich kann diese Problematik mit einem besseren Access Point lösen, indem ich dort einstelle, wie viel Bandbreite ein bestimmtes Gerät bekommen kann? Wie viel müsste ich da investieren?

Mit die billigste Hardware dürfte ein GL-AR150 von GL.inet sein: https://www.amazon.de/GL-AR150-OpenWrt-pre-installed-Repeater-OpenVpn/dp/B015CYDVG8/ref=sr_1_1?ie=UTF8&qid=1490544335&sr=8-1&keywords=gl-inet

Mit LEDE 17.01 (https://downloads.lede-project.org/releases/17.01.0/targets/ar71xx/generic/) bekommt man Airtime Fairness und einen auf extrem niedrige Latenzen optimierten Treiber. LEDE kann man darauf einfach installieren, indem man das enstprenchde Image über das Webinterface als Update einspielt. Solange 2,4 GHz nicht total überlaufen ist, kann man damit auch problemlos Backups per WLAN machen und gleichzeitig VoIP nutzen oder zocken. Nachteil beim GL-AR150 ist natürlich, dass er nur einen Stream für 2,4 GHz 802.11n hat und dadurch auf 72 MBit/s PHY-Rate beschränkt ist. Als Zweit-Access-Point kann der aber ganz nützlich sein, wenn man irgendwo nicht so viel Bandbreite braucht.

Die nächstbessere Hardware ist meiner Meinung nach der Ubiquiti AC Lite: https://www.amazon.de/Ubiquiti-Networks-2-4GHz-867Mbit-UAP-AC-LITE/dp/B016K4GQVG/ref=sr_1_1?ie=UTF8&qid=1490544616&sr=8-1&keywords=ubiquiti+ac+lite

Ist ein reiner Access Point und die Firmware kann von Haus aus Airtime Fairness und hat sogar Band Steering, womit Geräte mit 5 GHz darauf „gelenkt“ werden. Manche Geräte sind relativ dumm und bevorzugen sonst das meist langsamere 2,4-GHz-Frequenzband. Der AC Lite hat 2x2 MIMO für 2,4 und 5 GHz, was auch der Maximalausbau der meisten Clients ist. Mehr Geld auszugeben macht daher selten Sinn.

802.11ac dürfte auf jeden Fall eine nette Sache sein, wenn deine Geräte das unterstützen. Damit kann man je nach Client und bei gutem Empfang ~300 MBit/s TCP-Durchsatz (bei 2x2 MIMO) über die Luft schubsen. Das könnte für Backups ganz praktisch sein. Ansonsten hilft Airtime Fairness aber auch so dagegen, dass nicht ein Gerät überproportional viel Bandbreite und Airtime für sich beansprucht.

Statisch irgendwelche Clients oder Protokolle zu bevorzugen können leider die wenigsten APs und die, welche das können, implementieren es leider nicht wirklich gut. 802.11 hat interessanterweise mit WMM sogar schon eine Form von QoS integriert, allerdings geht es da weniger um Bandbreite, sondern um ein paar andere Parameter – z.B. wie hoch die Wahrscheinlichkeit zum Zugriff auf das Medium ist.

myMind
2017-03-26, 20:53:42
DLINK DNS-320

Es hat auch eine Backup-Funktion, Cloud Backup kann es aber nur zu Amazon und dann sind meine Daten beim NSA. Aber ja, im Nachhinein hätte ich besser 60 Euro mehr ausgegeben für ein NAS was mehr kann.

Was käme da in Frage?

So wie es hier aussieht:
How to Remote Backup Local NAS to Remote NAS - DNS-320, DNS-320L / DNS-320L to DNS-320? (http://www.dlink.com/uk/en/support/faq/network-storage-and-backup/nas/dns-series/dns-320/uk_remote_backup_local_nas_to_remote_nas_dns_320_dns_320l_dns_320l_to_dns_320)
scheint das NAS-Backup auf rsync aufzubauen. Das ist schon ziemlich universell.
Mit Online-Speicher der rsync und ssh unterstützt müsste es gehen. Beispiel:
Strato HiDrive (https://www.strato.de/online-speicher/). Das optionale Protokollpaket wird benötigt. Aktuell im Angebot 250GB für 2,50€/Monat ohne Einrichtungsgebühr.

Mit jeder beliebigen Linux-Box funktioniert das auch.

Verschlüsselt abgelegt bekommst Du die Daten so allerdings nicht. Wirklich sensible Daten würde ich so nicht sichern.

Ob die Backupsoftware des NAS jetzt verschiedene Versionsstände erhalten kann, ist nicht zu erkennen. Vermutlich aber eher nicht. Die Lücke kann der OnlineSpeicher ggf. ausgleichen. Bei Strato heißt das "BackupControl".

Das dachte ich mir ursprünglich auch. Hat aber irgendwie nicht gut funktioniert und geht schnell vergessen, weil es manuell angestoßen werden muss.
Das ist ziemlich schwach, von der NAS Software.

PHuV
2017-03-26, 22:01:45
Warum machst Du es nicht ganz schlicht und einfach? Per USB eine große HDD extern anbinden und darüber dann regelmäßig sichern.

sun-man
2017-03-27, 06:46:52
Warum machst Du es nicht ganz schlicht und einfach? Per USB eine große HDD extern anbinden und darüber dann regelmäßig sichern.
Weil basteln besser ist und die damit verbundenen Kontrolle ob auch alles richtig ist. Die Daten in die Cloud zu bringen ist das Ziel, nicht so wirklich die Sicherung, das ist scheinbar mehr Spaß an der Freud.

Die Idee mit dem Pi ist auch irgendwo aus einem Spaß am Basteln entstanden. Klar soll es eine zuverlässige Lösung sein, aber ich finde es faszinierend an etwas zu entwickeln, was dann irgendwann vollautomatisch abläuft, auch wenn es sich vielleicht als Zeitersparnis nicht lohnt.

myMind
2017-03-27, 08:21:55
Warum machst Du es nicht ganz schlicht und einfach? Per USB eine große HDD extern anbinden und darüber dann regelmäßig sichern.
Hat paul.muad.dib fünf Postings über diesem geschrieben, dass er es so macht. Aber auch, dass das NAS dies nicht automatisch kann, während das Remote-Backup offenbar einen Scheduler mitbringt.

sun-man
2017-03-27, 08:36:09
Naja, man kann auch solche Dinge machen wir ne gebrauchte 213j kaufen....da ist auch alles dabei. Oder ich hole mir aus dem Warehouse ne 216j. 140€.

Selber frickeln ist selbstverständlich auch in Ordnung. Bedarf aber auch mehr als nur nem Script. Leg ich den Kram in die Cloud sollte das alles verschlüsselt sein. Da macht es selbstredend Sinn das inkrementel bzw so zu machen das einmal alles und danach nur noch Changes gepusht werden - und eben nicht, wie beim selbst gefrickel, jede Woche alles erneuert wird. Und - ganez sichtig - Schlüssel dazu NIEMALS verlieren.
Andere Mütter haben auch schöne Töchter - will sagen, ich kenne halt nur Synology.
https://www.synology.com/de-de/dsm/6.1/data_backup
Hyperbackup kann schon einiges. Wie gesagt, Versionierung ist da eher Standard als die Ausnahme.

Klar, das Zeug ist nicht wirklich billig oder kostenlos. Aber es wird eben so zur Verfügung gestellt das es an sich funktioniert. Im Syno-Forum ist einer der hat seine 3.5TB bei Amazon in der Cloud. 100GB restore haben letzte Woche 23h gedauert - warum weiß niemand so wirklich. Da willst Du gar keine 3 TB zurücksichern.

ich hatte so einen verschlüsselten Bilder-Cloud-Backup in die amazoncloud auch mal aktiv. Irgendwann hab ich festgestellt das seit 4 Monaten nix mehr ging weil der Platz voll war :D.

PHuV
2017-03-27, 11:38:27
Die Qnap/Synology Geräte sind mir zu teuer und ich ich befürchte, dass dann irgendeine Funktion fehlt, die ich bräuchte, z.B. das Backup flexibel aus diversen Ordnern und Unterordnern zusammenzusetzen. Daher würde ich bevorzugen, vom NAS nur die reine Datenbereitstellungsfunktion zu nutzen, und alles andere über ein weiteres System zu lösen.
Also, wir haben uns letztes Jahr in der Firma ein Synology zugelegt, und das Hyper Backup (als Paket verfügbar) kann genau das, was Du willst, und wir sichern genau so.

Joe
2017-03-27, 13:39:51
Synology DSM ist eine offene Plattform. Gibt alles mögliche an Software.

paul.muad.dib
2017-03-27, 18:21:03
Warum machst Du es nicht ganz schlicht und einfach? Per USB eine große HDD extern anbinden und darüber dann regelmäßig sichern.

Drei Gründe: ich muss es manuell anstoßen, was schnell vergessen geht, es gibt keine räumliche Trennung, d.h. bei Brand, Blitzschlag oder auch nur einer umgekippten Blumenvase über beides besteht das Risiko, dass sowohl NAS und Sicherung abrauchen und es gibt nur eine Sicherung, während für ein Backup besser drei empfohlen werden.

paul.muad.dib
2017-03-27, 18:39:07
So, unter Berücksichtigung der bisherigen Antworten werde ich meinen Plan so abwandeln:

Ich kaufe einen HDD Dock und 1x im Jahr eine Platte, auf die ich ständig den kompletten Inhalt des Nas kopiere. Die aktuelle Sicherung auf einer externen HDD kommt zu meinen Eltern.

Zusätzlich werden Dokumente und Fotos verschlüsselt bei Strato in die Cloud gespeichert, die Dokumente als inkr. Backup, bei den Fotos werden einfach nur neue Dateien hinzugefügt.

Zur Koordination versuche ich ea aus Spaß am Basteln und aus Kostengründen mit einer Pi. Sollte das nicht klappen bin ich um eine Erfahrung reicher und verschmerzbare 30 Euro ärmer und kaufe eine Synology. Kann ich da jedes Modell nehmen, das meine zwei Festplatten zulässt oder sollte ich noch auf bestimmte Features achten?


Das Heimnetzwerk ist erstmal noch eine andere Baustelle. Hier muss ich entweder mal den Router tauschen, einen anderen WLAN access Point anschaffen, oder ein Kabel ins Arbeitszimmer legen.

Joe
2017-03-27, 21:56:19
Du kannst dich bei einer normalen HD nicht zwingend darauf verlassen, dass die Daten konsistent sind, wenn das Ding paar Jahre rumliegt. Festplatten verlieren Daten, wenn sie nicht in Betrieb sind.

Wenn Du so Dinger lange rumliegen lassen willst, schau Dir mal RDX an.
Das sind Wechselfestplatten aber auf Industrie Level.

http://www.tandbergdata.com/de/index.cfm/products/media/rdx-media/hdd-rdx-media/

r1ch1
2017-03-27, 22:10:09
ohne jetzt alles gelesen zu haben: kauf zwei festplatten, eine zum ständigen sichern und die andere liegt bei deinen eltern

wenn du die besuchst, tauscht du die platten einfach aus.
so hast du zuhause eine sicherung die einen tag alt ist und bei deinen eltern eine sicherung die eben so alt ist wie dein letzter besuch

bei mir macht das traybackup (freeware für privaten einsatz) auf dem homeserver, ausgelöst von der windows eigenen aufgabenplanung

myMind
2017-03-27, 22:15:09
Du kannst dich bei einer normalen HD nicht zwingend darauf verlassen, dass die Daten konsistent sind, wenn das Ding paar Jahre rumliegt. Festplatten verlieren Daten, wenn sie nicht in Betrieb sind.

Wenn Du so Dinger lange rumliegen lassen willst, schau Dir mal RDX an.
Das sind Wechselfestplatten aber auf Industrie Level.

Das ist doch unnötig teuer. Hier geht es doch nicht um Langzeitarchivierung. Die aufzuhebenden Daten sind doch auf den Life-Geräten noch vorhanden.

Wenn ich aus Platzgründen Daten von meinen Lifesystemen in den Schrank verschieben will, dann benutze ich entsprechend haltbare Medien. Aber für den genannten Zweck, wäre das Perlen vor die Säue.

Wenn man jedes Jahr eine neue billige Backup-Platte kauft, dann ist es schnurzpiepe, wenn z.B. bei einer Sicherung von vor 3 Jahren mal eine Datei nicht lesbar ist.

paul.muad.dib
2017-03-27, 22:58:11
ohne jetzt alles gelesen zu haben: kauf zwei festplatten, eine zum ständigen sichern und die andere liegt bei deinen eltern

wenn du die besuchst, tauscht du die platten einfach aus.
so hast du zuhause eine sicherung die einen tag alt ist und bei deinen eltern eine sicherung die eben so alt ist wie dein letzter besuch

bei mir macht das traybackup (freeware für privaten einsatz) auf dem homeserver, ausgelöst von der windows eigenen aufgabenplanung


Schadet es der Platte nicht, wenn sie so viel hin- und her transportiert wird?

PHuV
2017-03-28, 02:13:30
Nope, machen wir seit 5 Jahren bei uns in der Firma so. Gescheite Box, und dann passiert da unterwegs nichts.

DavChrFen
2017-03-28, 04:04:54
Du kannst dich bei einer normalen HD nicht zwingend darauf verlassen, dass die Daten konsistent sind, wenn das Ding paar Jahre rumliegt. Festplatten verlieren Daten, wenn sie nicht in Betrieb sind.

Wenn Du so Dinger lange rumliegen lassen willst, schau Dir mal RDX an.
Das sind Wechselfestplatten aber auf Industrie Level.

http://www.tandbergdata.com/de/index.cfm/products/media/rdx-media/hdd-rdx-media/

Ehm, bei meinem Verständnis wie eine Festplatte aufgebaut ist und wie die Daten dort gesichert sind, verlieren Festplatten Daten nicht durch rumliegen. Der normale Arterungsprozess, ja, aber das würde im Betrieb genauso sein.

Gibt es dafür eine Quelle?

sun-man
2017-03-28, 07:10:33
Apropos, fällt mir gerade ein. Für 25€/Jahr kannst Du 250.000 Lieder in die Amazon-prime Musikbib schieben. Damit ist ein großteil Deiner Daten durchaus sicher und immer und überall verfügbar. Heißt: Am Ende musst Du Dir noch um 50GB Gedanken machen. Das ist machbar.

Franconian
2017-03-28, 08:40:31
ohne jetzt alles gelesen zu haben: kauf zwei festplatten, eine zum ständigen sichern und die andere liegt bei deinen eltern

wenn du die besuchst, tauscht du die platten einfach aus.
so hast du zuhause eine sicherung die einen tag alt ist und bei deinen eltern eine sicherung die eben so alt ist wie dein letzter besuch

This. Ein normales Backup ist nicht schlecht, wirklich sinnvoll ist aber nur offsite.

Bei mir läuft ein Synology NAS mit 6 TB in Raid 1 als Endlager. Intern im Rechner eine 4 TB als Arbeitsbereich, auf welcher das Wichtigste regelmäßig mit FreeFileSync mit dem NAS synchon gehalten wird. Dann gibts noch eine externe HDD als weiteres Backup, welche nicht zuhause steht.

Bin gerade dabei mich mit Hyperbackup zu beschäftigen, finde die Möglichkeit mit einem verschlüsselten Cloudbackup sehr attraktiv, hoffe da kommen bald mehr Cloud-Anbieter, wie z.B. Mega, die bieten ja 50 GB gratis.

sun-man
2017-03-28, 08:54:17
Naja, wieviele Privatleute brauchen denn, ohne Nerdig zu sein, einen Backup der nicht zu Hause liegt? Das meiste ist wiederbeschaffbar und schlimmstenfalls schickt man die HDD ein und lässt sie retten. 50Gig sind ja um Grunde auch nur das aller aller allernötigste an Scans und so. Naja, und da gibts genug Anbieter die man enrcyptet nutzen kann. Auch Tante Google kommt an die verschlüsselten Dinge nicht ran. Naja, und wenn man am Ende den Key verloren hat ists auch Banane.
http://stadt-bremerhaven.de/synology-dsm-6-0-verschluesseltes-backup-mit-hyper-backup-nun-auch-fuer-dropbox-und-google-drive/

Zudem sollte man, wenn man rein Backupt, beachten das alte Dateien nicht gelöscht werden und der Backup immer fetter wird. Oder man synct eben, dann verliert man aber ggfs zu früh Files. Ne Versionierung macht stellenweise echt Sinn - oder eben ein Papierkorb in dem sich erstmal alles sammelt.

Franconian
2017-03-28, 09:16:28
Wenn die Bude abfackelt, ausgeräumt wird oder ein Stromschlag die noch angesteckte Externe killt, nützt dir ein Backup gar nichts. Im Worst Case sind deine Fotos für immer verloren. Räumliche Trennung macht immer Sinn, kostet ja nichts und bedeutet idR keinerlei Aufwand.

sun-man
2017-03-28, 09:37:08
Naja, man mus sdie Externe ja nicht direkt AUF den Rechner legen.
ich hab sowas: https://www.amazon.de/Sharkoon-SATA-QuickPort-USB-Dockingstation/dp/B00F6QT8I8

Dummerweise ist Syno damals auch nur den USB2 Weg gegangen. Der Initiale Backup dauert als EWIG und drei Tage. Da mir gerade die Hauptplatte abgeschmiert war - er Restore geht von der Internen 1000x schneller. Ich fuhr ein Kostrukt aus 2xBasis-Volume + USB Platte.

Joe
2017-03-28, 09:45:12
Ehm, bei meinem Verständnis wie eine Festplatte aufgebaut ist und wie die Daten dort gesichert sind, verlieren Festplatten Daten nicht durch rumliegen. Der normale Arterungsprozess, ja, aber das würde im Betrieb genauso sein.

Gibt es dafür eine Quelle?

Kann sein, dass es nur eine Bauernweisheit ist. Ich hab das mal wo aufgeschnappt, glaub bei Kroll.
Auf die Schnelle hab ich nur das gefunden:

https://en.wikipedia.org/wiki/Data_degradation

Magnetic media, such as hard disk drives, floppy disks and magnetic tapes, may experience data decay as bits lose their magnetic orientation. Periodic refreshing by rewriting the data can alleviate this problem. Also, in warm and humid conditions these media, especially the ones poorly protected against aggressive air conditions, are prone to the decomposition of the very material they are fabricated from.