PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Neue Backup-Hardware


Gliese
2020-05-13, 16:05:17
Früher:
Gesichert werden musste:
* Daten von der 4TB HDD + 500GB SSD-Festplatte im Hauptrechner.
* Daten vom Laptop (1TB)

Hardware:
* 2,5"-USB-Festplatte (4TB)
* 2,5"-USB-Festplatte (4TB)
(ja, 2 Stück)

Methode:
* Warten bis Abends
* Alle Anwendungen zu machen
* USB-Festplatte mit TrueCrypt 7.1a mounten und Backup-Script starten
* Flasche Wein runterkippen, weil der Rechner abartig laut war und der leider im Schlafzimmer stand und dann ins Bett gehen :freak:
* Morgens (Backup war fertig) Programm schließen und USB-Platte abhängen
* Die USB-Festplatte mit dem frischem Backup am Tag außer Haus ins Lager nehmen und die 2. USB-Festplatte aus dem Lager wieder nach Hause mitnehmen

Probleme:
* Die Festplatten waren rappelvoll und die 5TB passten damals schon nicht auf die 4TB-USB-Festplatte, deshalb wurden nicht so wichtige VMs und Verzeichnisse (besonders die Blockchains) nicht mitgesichert
* Ab und zu war das Backup fehlgeschlagen, weil der USB-Controller dachte, die USB-Festplatte wäre abgesteckt worden -> TrueCrypt + Backup-Script ist eingefroren, oder es wurde nicht fertig, weil die Platte auf eine niedrige USB-Geschwindigkeit runtergestuft wurde

Großer Vorteil:
* Eine 2,5"-USB-Festplatte kann man ganz einfach mit in den Urlaub nehmen und kommt jeder Zeit an die Daten


Heute:
Gesichert werden muss:
* Daten von 16TB HDD + 1TB SSD-Festplatte im Hauptrechner
* Weiterhin 1TB vom Laptop
* Zu sichern wären derzeit ca. 6TB, Tendenz steigend

Hardware:
>> Wird gesucht! <<

Methode:
* Anwendungen beenden, diesmal VeraCrypt aufmachen, Script starten, ins Bett gehen (kein Alkohol nötig, neuer Rechner und bessere Bude :cool: ), aufwachen und wie auch immer Tausch.


Hab da teils 25 Jahre alte Daten, viele Urlaubsfotos, Emulatoren, den alten Amiga als VM ... unersetzbar halt.

Was meint ihr, was ist die beste und zukunftssicherste Backup-Strategie, die ich für 500€ mit den neuen Anforderungen fahren kann?
Ich möchte schon mindestens 100 MB/s haben, sonst dauerts zu lange. Es wäre mir lieb, wenn man es ggf. auch mit in den Urlaub nehmen kann.
Konstruktion mit Wechselrahmen + normalen HDDs?
Oder soll ich einfach nur weitere USB-Festplatten dazu kaufen?
Ich war mit der Stabilität der USB-Backups nicht ganz zufrieden, das kann am USB-Port des Rechner gelegen haben, aber auch am USB der Festplatte, mehr weiß ich nicht.
Ich möchte ein einziges Backups auch nicht auf zu viele Festplatten verteilen, da es die Ausfallwahrscheinlichkeit erhöht.
Verschlüsselung ist natürlich absolut Pflicht.

Habt ihr irgendwelche Ideen oder wenigstens Kompromisse?

Bisjetzt hab ich mit dem neuen Rechner noch keine Voll-Backups gemacht, höchstens Teilbackups der wichtigen Daten verschlüsselt in der Cloud, oder händisch was auf der USB-Festplatte freigeschaufelt um etwas zu sichern, aber das ist auf Dauer keine Lösung.

Fliwatut
2020-05-13, 16:57:19
Warum machst du denn keine inkrementellen Backups? Dann muss der Rechner nicht die ganze Nacht laufen.
Und wenn es mobil bleiben soll, dann geht es ja nur mit einer externen Platte, die Kosten sind doch sehr überschaubar: https://geizhals.de/western-digital-wd-my-book-10tb-wdbbgb0100hbk-a1818213.html?hloc=de
Es gibt sowas auch mit Thunderbolt, dann aber gleich deutlich teurer.

Blase
2020-05-13, 17:04:13
Also ich sichere ebenfalls mit ner 2.5 5TB USB Platte und selbst gebasteltem "Robocopy-Sicherungsscript". Mit dem /MIR Schalter werden ja nur die geänderten Ordner / Dateien auf die Platte geschoben - davon ausgehend, dass das Meiste vom Datenbestand sich nicht laufend ändert, geht so eine Sicherung dann recht schnell.

Ist halt die Frage, ob und wie viele Sicherungen du wirklich zurück möchtest im Bedarfsfall. Mir reicht die aktuelle Sicherung zu haben.

Hantlicher als eine 2.5 USB Platte wird es wohl nicht, vor allem, wenn du die "mobil" haben möchtest. Aber bezüglich Größe wirst du dann auf 3.5 Zoll gehen müssen. Ab 220 Euro für 12 TB gehts dann los (https://geizhals.de/?cat=hdx&xf=339_3.5%22%7E5588_HDD%7E6_12000%7E840_USB+3.0&sort=p#productlist).

Evtl. kommt auch die kostenfreie Version vom Veeam in Frage. Nach dem ersten Full Backup wird im Anschluss inkrementell weiter gesichert - geht ebenfalls sehr schnell...

MfG Blase

Morpheus2200
2020-05-13, 17:15:25
Ein Nas wäre da wohl das sinnvollste.
Wenn du von extern darauf zugreifen willst kannst du das per VPN realisieren.

Aber 500 euro ist für die Datenmenge etwas knapp. Da bleibt nur die USB Festplatten Lösung über .

Wenn du auf eine ausbaufähige Nas Lösung setzen willst dann kannst du dir mal die hier anschauen.
https://geizhals.at/?sort=p&v=e&cat=hdxnas&xf=1172_QNAP~1172_Synology~12966_4&hloc=at

Da steckst du erstmal 1 hdd mit 6-8TB rein und erweiterst sie anschließend nach Bedarf.
Ich bevorzuge Synology da es hier auch Vorteile bietet da du am laufenden system das Raid erweitern kannst, wäre hier von Vorteil. Aber auch Qnap macht seinen Dienst anstandslos.

Die externe Lagerung kannst du mit den vorhandenen hdds durchführen vielleicht dann aber mit niedrigerem Intervall.

Perfekt wären jedoch 2 NAS eine Zuhause, eine wo anders dann brauchst du dich um nichts mehr kümmern. Das Backup machst du am lokalen nas und die Sicherung davon inkrementell über vpn zum anderen nas.

Gliese
2020-05-13, 17:41:07
Mein Script macht die Backups schon so, dass nur die geänderten Dateien (neu) übertragen werden.

Was lange dauert, sind die virtuellen Festplatten der virtuellen Maschinen. Selbst wenn ich in der VM ein Byte ändere, dann wird das gesamte Stück ins Backup neu übertragen. Und den Content der virtuellen Disk zu mounten ist auch nicht wirklich die Lösung, a) anderes Filesystem / Rechte / für Windows verbotene Zeichen im Dateinamen sind möglich, b) teils hat man da Millionen von kleinen Dateien und c) möchte man die VMs schon 1:1 mit allem gesichert haben.
Solange es über 100 MB/s bleibt, schafft das Backup bei ca. 8 Stunden Schlaf währenddessen 3TB, was zur Zeit locker ausreicht.

Ich habe das Board:
https://www.gigabyte.com/Motherboard/X570-AORUS-ELITE-rev-10
Also anscheinend kein Thunderbolt :eek: :frown:

NAS wäre auch ne Idee, mein LAN kann ja Gigabit, aber hab ich da auch eine Shell, um das NAS zu verschlüsseln?
Wenn nicht, wie ist das mit der Performance, wenn ich ein riesiges VeraCrypt-Container auf ein Netzwerk-Volumen packe?
(Nein ich werde nicht der (Hardware-)Verschlüsselung des Herstellers trauen, die nehmen gerne einen Static AES-Key oder machen so ähnliche Scherze)

Aktuelle Tendenz scheint wohl doch USB zu sein ...

Morpheus2200
2020-05-13, 17:47:28
Ja du kannst es verschlüsseln aber wenn du dem Hersteller nicht traust musst du das mit dem Terminal machen, ob das geht wie du dir das vorstellst kannst du eventuell auf der live Demoversion von synology testen oder den Support mal anschreiben, der antwortet in der Regel nach einem Tag

Die Verschlüsselung von synology gilt lt. Meinen Recherchen als derzeit nicht knackbar, du wirst bei der Aktivierung darauf hingewiesen das wenn der Schlüssel verloren geht, es keine Möglichkeit gibt die Daten wieder herzustellen. Da kenne ich mich aber zu wenig aus, wie gesagt der support kann dir das sicher beantworten.

Performance...
Bei den größeren Modellen kannst du mit Ssd Cache arbeiten, das sollte bei kleinen Dateien keine performancewünsche offen lassen. Das übersteigt jedoch dein Budget etwas.

Ds 918+ mit 2x 500gb nvme ssd cache mit TBW 1PB + und die Hdd dazu sollte mit knapp unter 1000euro umsetzbar sein ohne das ich jetzt Preise geschaut habe

Gliese
2020-05-13, 18:08:08
Aktuell würden bei jedem Backup tatsächlich 600GB-2000GB "Differenz" übertragen, wenn ich nur geänderte Dateien berücksichtige, denn 99% der Datenmenge sind wegen der virtuellen Festplatten der VMs. Wenn ich einige Dateien in verschiedenen Verzeichnissen in der VM anfasse, dann noch mal apt update mache, dann werden schnell größere Datenmengen fällig. Ist mir trotzdem lieber als die virtuelle Festplatte zu mounten und stattdessen plötzlich dann Millionen von kleinen Dateien syncen zu müssen.

Beides wäre leider für eine Übertragung per VPN ungeeignet, falls ich denn sowas vorhätte.

Hmmmm vielleicht muss ich mal ein Script bauen, der auch eine Checksumme für jedes Gigabyte einer großen Datei bildet und nur die Gigabytes überträgt, wo die Checksumme sich geändert hat. Oder vielleicht gibt es ja schon sowas in fertig?

Schon mal Danke für paar Ansätze. Wenn es ne Shell zur NAS gibt, wäre es echt prima. Die Lösung muss sowohl ein Diebstahl als auch eine Hausdurchsuchung, ohne dass die Verschlüsselung plötzlich gebrochen wird, überstehen.

Muss mal paar Nächte drüber schlafen... vielleicht ist doch das stufenweise Anschaffen mit später erweitern die Lösung.

Morpheus2200
2020-05-13, 18:20:50
Aktuell würden bei jedem Backup tatsächlich 600GB-2000GB "Differenz" übertragen, wenn ich nur geänderte Dateien berücksichtige, denn 99% der Datenmenge sind wegen der virtuellen Festplatten der VMs. Wenn ich einige Dateien in verschiedenen Verzeichnissen in der VM anfasse, dann noch mal apt update mache, dann werden schnell größere Datenmengen fällig. Ist mir trotzdem lieber als die virtuelle Festplatte zu mounten und stattdessen plötzlich dann Millionen von kleinen Dateien syncen zu müssen.

Beides wäre leider für eine Übertragung per VPN ungeeignet, falls ich denn sowas vorhätte.

Hmmmm vielleicht muss ich mal ein Script bauen, der auch eine Checksumme für jedes Gigabyte einer großen Datei bildet und nur die Gigabytes überträgt, wo die Checksumme sich geändert hat. Oder vielleicht gibt es ja schon sowas in fertig?

Schon mal Danke für paar Ansätze. Wenn es ne Shell zur NAS gibt, wäre es echt prima. Die Lösung muss sowohl ein Diebstahl als auch eine Hausdurchsuchung, ohne dass die Verschlüsselung plötzlich gebrochen wird, überstehen.

Muss mal paar Nächte drüber schlafen... vielleicht ist doch das stufenweise Anschaffen mit später erweitern die Lösung.

Also das die Verschlüsselung hält davon kannst du ausgehen wenn synology sagt das auch sie keine Möglichkeit haben das zu entschlüsseln. Deutlich einfacher wird es sein den Schlüssel zu bekommen und den Aufbewahrungsort herauszufinden wenn du diesen irgendwo physisch aufbewarst.
Ein entsprechender sicherer Umgang mit Benutzerrechten und langen Passwörten bei der Synology vorausgestzt.

Morpheus2200
2020-05-13, 18:22:27
doppelpost

Korfox
2020-05-13, 18:26:59
Raspberry Pi, nextcloud mit Server side Encryption und USB-HDD und automatischem Backup auf zweite USB-HDD.
Dann braucht es kein NAS (ist tatsächlich wohl preiswerter).

Rooter
2020-05-13, 18:47:07
rsync kann Dateien teilweise übertragen. Aber wie du das ohne Client-Server nutzen kannst, keine Ahnung. :D

Können Synology oder Qnap einen rsync-Server bereitstellen?

MfG
Rooter

Morpheus2200
2020-05-13, 18:54:12
rsync kann Dateien teilweise übertragen. Aber wie du das ohne Client-Server nutzen kannst, keine Ahnung. :D

Können Synology oder Qnap einen rsync-Server bereitstellen?

MfG
Rooter

Ja, gibt ja fast nix, was die nicht können.
Wenn man das maximale an Funktionen haben will muss es aber ein x86 Prozessor sein, die sind meist ab der Play Variante verbaut. Damit kommt zusätzlich auch Docker ins Spiel.

Gliese
2020-05-14, 09:49:22
Also das die Verschlüsselung hält davon kannst du ausgehen wenn synology sagt das auch sie keine Möglichkeit haben das zu entschlüsseln.
Naja viele Chefs, Manager und Supportler haben nur Marketing- und offizielles Wissen über ihre Produkte. Das Detailwissen der Implementierung verbirgt sich in den Köpfen der Entwickler.
So müssen wir unterscheiden zwischen Lösungen, die für Unternehmen ausreichend sind und Lösungen, die für Privatmenschen ausreichend sind.

Kleine Anekdote aus dem Berufsleben:
Wie wir wissen, ist die Hardware-Verschlüsselung von einigen SSDs unsicher (https://security.stackexchange.com/questions/134564/how-secure-is-hardware-full-disk-encryption-fde-for-ssds).
Ein Mitarbeiter soll ein Laptop mit einer SSD für außerhalb bekommen, auf der sensible Kundendaten gespeichert werden. Darum kam beim Chef beim Zusammenstellen das Thema Verschlüsselung auf.
Chef: "Wir wollen bei Verlust des Laptops nicht Ärger mit der Datenschutzbehörde kriegen, wenn wir BitLocker mit der Hardwareverschlüsselung nutzen, dann läuft das sicher und transparent, und ohne Performanceverlust"
Admin: "Ähm, die Hardwareverschlüsselung hat sich des öfteren als unsicher herausgestellt ..."
Chef: "... offiziell gibts kein Weg, die zu knacken, also müssen wir den Verlust nicht melden und sind wir fein raus."
Admin: "Wenn dann die Daten dann durch die Lücke ..."
Chef: "... egal, dann wird uns trotzdem niemand aufs Dach steigen, da wir es Schwarz auf Weiß haben. Wir haben uns vorschriftsgemäß verhalten und gehandelt, somit sind wir fein raus"
...

Firmen haben ein potentiellen Feind weniger, nämlich die Behörden, und wenn ein Datenträger in der Forensik landet, dann war es ein Hackerangriff und dann arbeiten Firma und Behörden Hand in Hand, miteinander, nicht gegeneinander.

Privat hat man vielleicht die Blockchain auf der Platte. Man will kein Präzedenzfall darstellen, ob nun hochgeladene Fragmente von Kinderpornografie in der Blockchain verbotener Besitz von Kinderpornografie darstellen oder nicht.
Man will sich typischer Weise sich nicht für jede Datei rechtfertigen, nicht für vergessene AmiNet- und Pr0n-Archive, die seit Jahrzehnt auf der Festplatte gammeln, früher legal waren und nach X Verschärfungen plötzlich gegen irgendwelche Hackerparagraphen verstoßen oder auch als Jugendpornografie gelten. Und wie es wohl mit der Legalität des Pempers-Werbebanner (Erinnerung: ist für Babywindeln) in 10 Jahren, welches mal parallel vor 20 Jahren zusammen mit einer HTML-HowTo-Seite abgespeichert wurde, will man auch nicht am eigenen Leib erfahren. Die Forensik-KI von morgen, die sicherlich Einzug in die Labore haben wird, bringt so vieles ans Tageslicht, sofern die Verschlüsselung sie nicht davon abhält.

Raspberry Pi, nextcloud mit Server side Encryption und USB-HDD und automatischem Backup auf zweite USB-HDD.
Die Performance ist viel zu mies. LAN mit USB teilen sich den selben Controller, dann kommt noch die Verschlüsselung hinzu und wenn der LAN-Rohdurchsatz laut ersten Google-Recherchen auch noch 30-60 MBit sein soll, neeee das geht gar überhaupt gar nicht.

rsync kann Dateien teilweise übertragen.
Du meinst, rsync bildet, wenn man z.B. eine 100GB-Datei zum Übertragen anstößt, für jedes Megabyte/Gigabyte eine Checksumme und nur wenn die Checksumme sich unterscheidet, wird dieser Block übertragen?
Zwar jetzt 33,3% Offtopic, aber fände ich interessant zu wissen, falls ich mal auf Linux umsteige, weil mir Windows 10 aufm Keks geht, was ich eigentlich schon immer wollte aber nie dazu gekommen bin (noch andere Projekte am Laufen).


Zum Backup, Synology werde ich mir mal anschauen, bevor ich mir klassisch ne USB-Platte zulege.

DerRob
2020-05-14, 14:00:47
Du meinst, rsync bildet, wenn man z.B. eine 100GB-Datei zum Übertragen anstößt, für jedes Megabyte/Gigabyte eine Checksumme und nur wenn die Checksumme sich unterscheidet, wird dieser Block übertragen?
Zwar jetzt 33,3% Offtopic, aber fände ich interessant zu wissen, falls ich mal auf Linux umsteige, weil mir Windows 10 aufm Keks geht, was ich eigentlich schon immer wollte aber nie dazu gekommen bin (noch andere Projekte am Laufen).
Einige Cloudanbieter wie z.B. DropBox scheinen sowas wohl zu machen:

https://help.dropbox.com/de-de/installs-integrations/sync-uploads/upload-entire-file

Da müsste es dann doch auch lokale Cloud- oder Sync-Software geben, die sowas auch kann...

Edit:

https://de.wikipedia.org/wiki/Rsync

rdiff-backup
→ Hauptartikel: rdiff-backup

Der rsync-Algorithmus wird in der Backup-Lösung rdiff-backup[7] eingesetzt. Diese Software wird für Linux, macOS und Windows angeboten.

Damit können auf lokalen oder entfernten Rechnern liegende Dateien oder Verzeichnisse in einem Backup-Mirror gesichert werden. Zusätzlich lässt sich jede ältere Version einer Datei oder eines Verzeichnisses wiederherstellen, da rdiff-backup reverse deltas in platzsparender Weise speichert – nur die Teile der Quelldateien, die sich verändert haben, werden übertragen. Dies macht rdiff-backup zur bevorzugten Backup-Software für große Dateien, die sich nur wenig verändern (z. B. E-Mail-Postfächer auf dem lokalen Rechner, virtuelle Maschinen).

Mit dem Werkzeug archfs kann ein mit rdiff-backup erstelltes Backup-Verzeichnis als virtuelle Festplatte eingebunden (engl. "mount") werden. Alle gesicherten Daten sind nun als "snapshots" zugänglich, ähnlich wie bei Rsnapshot und Back In Time.[8]

Daredevil
2021-01-07, 13:38:11
Ich missbrauche mal eben den Thread.
Wie schaut es aus mit der Sicherheit mit dem Backup auf einer SD Karte?
Sollte die nicht unempfindlicher sein als z.B. eine HDD oder SSD, weil "Wasserfest" und sonst auch leicht verstaubar bzw. nicht von "Elektronik" abhängig?
Ich würde mir zwei Backups machen, ein jährliches und ein monatliches. ( Zwei unterschiedliche SSDs )

Speziell geht es da um Backups via MacOS.

sei laut
2021-01-07, 13:58:32
[..]
Du meinst, rsync bildet, wenn man z.B. eine 100GB-Datei zum Übertragen anstößt, für jedes Megabyte/Gigabyte eine Checksumme und nur wenn die Checksumme sich unterscheidet, wird dieser Block übertragen?
[..]
Nein, rsync prüft, ob sich die ganze Datei verändert hat und überträgt diese ansonsten komplett neu.
Also bei einem VM Image hast du da genauso Probleme.
Wenn du sowas mit Linux haben willst, kannst du auf btrfs sync (btrfs ist ein Linux dateisystem) zurückgreifen. Sprengt aber den Thread hier.

Ich hab mir Anno dazumal selbst ein NAS mit itx bord zusammengebaut. Hat 6 Platten Slots und Core i3 Prozessor. Kam auf etwas über 500€, aber das teuerste sind neben der Zeit wohl die Festplatten.
Aber da du kein Linux nutzt (und kennst?), wüsste ich nicht, was du da an leicht bedienbarer Software installieren solltest.

Zafi
2021-01-07, 14:56:58
Ich missbrauche mal eben den Thread.
Wie schaut es aus mit der Sicherheit mit dem Backup auf einer SD Karte?
Sollte die nicht unempfindlicher sein als z.B. eine HDD oder SSD, weil "Wasserfest" und sonst auch leicht verstaubar bzw. nicht von "Elektronik" abhängig?
Ich würde mir zwei Backups machen, ein jährliches und ein monatliches. ( Zwei unterschiedliche SSDs )

Speziell geht es da um Backups via MacOS.

MacOS erlaubt dir ja mehr als ein TimeMachine-Laufwerk, so dass du es so einstellen kannst, das abwechselnd gesichert wird. In so einem Fall wäre es ok, dass zweite Laufwerk als SD-Speicher zu realisieren (falls das für dich wichtig ist), da du zur Not immernoch ein weiteres Backup hättest.

Aber grundsätzlich ist in typischen USB-Sticks und SD-Speicherkarten die minderwertigste Technik verbaut. Man sollte auch keine Erfahrungswerte von früher zu Rate ziehen, denn deren Technik hat sich über einen stetigen Preiskampf qualitativ immer weiter nach unten verlagert.

Auch Produkten mit langer Garantielaufzeit kann man nicht vertrauen, da sie nicht für den Betrieb als reguläres Computer-Laufwerk (mit löschen und neuschreiben) ausgelegt sind, sondern für den anspruchslosen Betrieb als einfacher Kamera-Speicher, bei dem hin und wieder ein paar neue Daten hinten drangehängt werden.

Daredevil
2021-01-07, 15:06:22
Was wäre optimaler? Eine SSD, eine NVME, doch eine HDD?
Warum ich die SD Karte in Erwägung gezogen habe? ^^
Weil ich die immer in meinem USB-C Hub stecken lassen könnte, dann würde das System alles automatisch machen und das ganze ist halt klein, handlich und halt vor Wasser geschützt.
Gibts keine "Pro SD Karten"?

Oder eher so?
Ein Cloud Backup ( iCloud )
Ein physisches Backup ( 1 Jahr HDD )
Ein physisches Backup ( Monatlich SSD )
Ein physisches Backup ( Wenn ich das ganze mit dem Strom verbinde, da am Hub angeschlossen ( SD Karte ? )
Und halt die Daten auf dem Gerät selbst

Je langfristiger das Backup gehalten werden soll, je "sicherer" das Medium? HDD > SSD > SD ?

Opprobrium
2021-01-07, 15:21:31
Ich missbrauche mal eben den Thread.
Wie schaut es aus mit der Sicherheit mit dem Backup auf einer SD Karte?
Sollte die nicht unempfindlicher sein als z.B. eine HDD oder SSD, weil "Wasserfest" und sonst auch leicht verstaubar bzw. nicht von "Elektronik" abhängig?

Ich hab irgendwie im Kopf, daß SSDs, USB Sticks, SD-Karten etc. nicht wirklich lange lagerbar sind und ohne Strom nach einer Weile die Daten verlieren. Das mißt man aber in Jahren, also kein echtes Drama, und wenn Du die Karte gleich im PC stecken läßt ohnehin kein Problem.

Ansonsten haben die Teile eine begrenzte Wiederbeschreibbarkeit, weswegen bspw. der Raspberry Pi kleinerr SD Karten recht schnell vertilgt.

Wenn Du aber ohnehin noch regelmäßige Bavkups macht spricht eigentlich wenig gegen eine hochqualitative SD Karte im Mac. Nur solltest Du die dann eben nicht für 10 Jahre in einen Tresor legen und erwarten, daß Deine Daten sicher sind :smile:

Korfox
2021-01-07, 15:35:00
Die Performance ist viel zu mies. LAN mit USB teilen sich den selben Controller, dann kommt noch die Verschlüsselung hinzu und wenn der LAN-Rohdurchsatz laut ersten Google-Recherchen auch noch 30-60 MBit sein soll, neeee das geht gar überhaupt gar nicht.

Das ist btw. seit dem Raspi 4B nicht mehr der Fall und somit falsch. Auch der Durchsatz ist so nicht korrekt.

Ben Carter
2021-01-07, 15:42:47
Kannst du die Daten, die sich in der VM immer ändern nicht auf einem (lokalen) Netzlaufwerk speichern und nur dieses sichern? Im Script einfach die VMs selbst ausnehmen. Oder willst du die Daten selbst auch gekapselt haben? Dann vielleicht eine "Fileserver-VM", die eben die Netzlaufwerke zur Verfügung stellt.

Zafi
2021-01-07, 22:28:50
Was wäre optimaler? Eine SSD, eine NVME, doch eine HDD?
Warum ich die SD Karte in Erwägung gezogen habe? ^^
Weil ich die immer in meinem USB-C Hub stecken lassen könnte, dann würde das System alles automatisch machen und das ganze ist halt klein, handlich und halt vor Wasser geschützt.
Gibts keine "Pro SD Karten"?

Oder eher so?
Ein Cloud Backup ( iCloud )
Ein physisches Backup ( 1 Jahr HDD )
Ein physisches Backup ( Monatlich SSD )
Ein physisches Backup ( Wenn ich das ganze mit dem Strom verbinde, da am Hub angeschlossen ( SD Karte ? )
Und halt die Daten auf dem Gerät selbst

Je langfristiger das Backup gehalten werden soll, je "sicherer" das Medium? HDD > SSD > SD ?

Eine Kombination von verschiedenen Backup-Lösungen ist immer von Vorteil. Ich synchronisiere zum Beispiel meine Daten über eine Synology-NAS (Cloud-Drive) auf mehrere PCs. Sollte tatsächlich ein PC einen Totalschaden erleiden, dann setze ich mich einfach an einen anderen Computer und kann einfach weiter arbeiten. Selbst wenn die NAS ausfällt, ist das kein Problem, da alle Daten auf allen Computern mehrfach gesichert sind. Da die synchronisation verschlüsselt auch über das Internet abläuft, kann ich auch einen PC an einem anderen Standort abstellen und brauche Lokale Ereignisse wie Brand, Blitzschlag oder Wasserschaden nicht zu fürchten.

Zusätzlich dazu sichere ich die wichtigsten Daten meiner NAS auf ein externes Laufwerk, dass an der NAS hängt. Und alle jubel Jahre lege ich auch eine Kopie wichtigsten Daten auf DVD ab. Die meisten Sicherungen sind automatisiert und laufen in Echtzeit ab. Ich habe also einen sehr aktuellen Stand und dennoch keine Arbeit damit. Lediglich die DVD-Sicherung wird langsam zum Problem, da sie nicht nur Arbeit macht, sondern auch weil die Datenmenge (der wichtigen Daten) mittlerweile die Dimensionen einer DVD sprengt. Aus Gewohnheit will ich aber nicht darauf verzichten.

Falls dir sowas zu umständlich ist, dann würde ich in deinem Fall eine TimeMachine auf eine große externe Festplatte empfehlen. Je größer die Festplatte, desto besser, denn dann kann eine TimeMachine ihre Vorteile am besten ausspielen. Je mehr Speicher du hast, desto mehr Versionen können abgelegt werden. Es gibt auch Wasserdichte gehäuse, sowie auch stoßsichere Gehäuse für Festplatten. Du kannst auch ein längeres Kabel verwenden, damit die Festplatte nicht direkt an deinem Arbeitsplatz Raum verschwendet.

Aber verlass dich nicht einzig auf diese Lösung. Mindestens eine zusätzliche Lösung wäre nicht verkehrt. Wenn du es dir leisten kannst/willst, dann ist die iCloud preislich akzeptabel (2TB für 10 Euro pro Monat). Ein Backup sollte einem das schon wert sein. Ansonsten sind auch NAS-Laufwerke (Synology ab 100 Euro zzgl. Festplatte) auch sehr erschwinglich.

Bei Backups würde ich eine HDD einer SSD vorziehen, denn HDDs können gelöschte oder beschädigte Daten viel einfacher wieder hergestellt werden (falls es tatsächlich mal sein muss). Bei SSDs stehen da die Chancen sehr viel schlechter. SSDs machen eher Sinn, wenn du sie ständig mit dir rumtragen musst.

Screemer
2021-01-07, 23:55:42
Ist ja schön, dass ihr glise immer noch Tipps geht und helfen wollt. Seine letzter Post ist aber 7 Monate alt :ugly:

Daredevil
2021-01-08, 00:00:51
Wie würdest du denn ein Backup in die iCloud vollführen?
Also einfach die Daten der Time Machine nehmen und die in die iCloud werfen?
Weil da müssen die Daten natürlich so gut es geht verschlüsselt sein.

Zafi
2021-01-08, 05:20:45
Wie würdest du denn ein Backup in die iCloud vollführen?
Also einfach die Daten der Time Machine nehmen und die in die iCloud werfen?
Weil da müssen die Daten natürlich so gut es geht verschlüsselt sein.

Die Time Machine ist ein komplettes System-Backup mit mehreren Versionen, wogegen bei der iCloud nur deine Dateien (Fotos, Dokumente, Videos) sowie deine Dienste (Mails, Kontakte, Kalender) zur Synchronisation abgelegt werden. Die jeweilige Lösung empfiehlt sich also für bestimmte Problem-Stellungen. Die Time Machine ist gut, wenn du dir beispielsweise Malware einfängst, dann springst du kurz vor das Ereignis und alles ist wieder gut. Die iCloud empfiehlt sich dagegen, wenn dein Mac ausfällt. Dann setzt du dich einfach an deinen Zweit-Mac und arbeitest wie gewohnt weiter. Sie ergänzen sich also gut.

Normalerweise empfehle ich parallel auch noch 3te und 4te Backup-Varianten. Da es auch oft genug vor kommt, dass ein Backup versagt und man dies erst dann feststellt, wenn man das Backup braucht. In deinem Fall wäre dies zum Beispiel, dass die Time Machine Festplatte längere Zeit nicht angeschlossen war und entsprechend keine Sicherungen gemacht wurden. Oder dass die iCloud zu klein ist und nicht alle Daten synchronisiert wurden. Aber wenn man jemanden eine 3te oder gar 4te Backup-Variante vorschlägt, dann bekommt man oft den Vogel gezeigt, da alle glauben, dass ein Backup alleine schon vollkommen genügt. Die meisten haben da einfach noch keine schlechten Erfahrungen gemacht und unterschätzen deshalb die zahlreichen Gefahren eines Datenverlusts.

Die iCloud nutzt meines Wissens eine Ende-zu-Ende Verschlüsselung. Das sollte also kein Problem sein.

Daredevil
2021-01-10, 21:38:03
Danke :)