Anbieter für Cloud-Backup
-
Oh okay, das ist ja dann nichtmal im Dateisystem eingehängt sondern nur via Web-Oberfläche erreichbar wenn ich das richtig sehe. Mal ganz abgesehen, dass man sich ums Syncen und um die client-side encryption selbst kümmern muss. Kein Wunder, dass das billiger ist
MfG SideWinder
-
Also bevor man Sachen schlecht redet sollte man sich erstmal informieren.
Du erhälst hier die Möglichkeit über 100TB für 70€ im Jahr abzulegen. Manche User werden geblockt ( und wieder freigeschaltet ) wenn sie diese 100 TB innerhalb kürzester Zeit wieder herunterladen. Der Zugriff sollte sich also auf mehrere TB am Tag beschränken und nicht mehr als 10 TB in der Woche.
Die Tools rClone und ACD_CLI für Windows / Linux / alles andere bieten dir die Möglichkeit auf die Dateien als FUSE Mount zuzugreifen.
RCLone mit Encryption bietet dir die Möglichkeit Plattformübergreifend zu verschlüsseln.
Bandbreite ist bei mir bisher immer maximum gewesen. Auf meiner 10GBit Line sind es etwa 2,5GBit/s. Ich glaube aber das wäre mehr wenn die Platten das hergeben würden.
-
GMail schafft 10GBit/s lt anderen Nutzern. Es ist also schneller als eine lokale 5400 er Festplatte.
-
SideWinder schrieb:
Oh okay, das ist ja dann nichtmal im Dateisystem eingehängt sondern nur via Web-Oberfläche erreichbar wenn ich das richtig sehe. Mal ganz abgesehen, dass man sich ums Syncen und um die client-side encryption selbst kümmern muss. Kein Wunder, dass das billiger ist
Wäre ja schon gut, wenn es Webdav unterstützen würde. Das sollte das Mindeste sein.
-
Webdav? Ja ne...
Es gibt dafür bessere Alternativen. Wer das nicht sieht kann gerne zu Strato gehen und für 10 GB 5€ ausgeben.
Heute nutzt man allgemeine API´s und baut sein Userland darauf auf. Sie stehen einem einfach offen und es gibt soviele gute Applikationen die darauf aufbauen. Ob aus der Windowswelt oder linux cli.
-
cloudistueberall schrieb:
Also bevor man Sachen schlecht redet sollte man sich erstmal informieren.
Du erhälst hier die Möglichkeit über 100TB für 70€ im Jahr abzulegen. Manche User werden geblockt ( und wieder freigeschaltet ) wenn sie diese 100 TB innerhalb kürzester Zeit wieder herunterladen. Der Zugriff sollte sich also auf mehrere TB am Tag beschränken und nicht mehr als 10 TB in der Woche.
Die Tools rClone und ACD_CLI für Windows / Linux / alles andere bieten dir die Möglichkeit auf die Dateien als FUSE Mount zuzugreifen.
RCLone mit Encryption bietet dir die Möglichkeit Plattformübergreifend zu verschlüsseln.
Bandbreite ist bei mir bisher immer maximum gewesen. Auf meiner 10GBit Line sind es etwa 2,5GBit/s. Ich glaube aber das wäre mehr wenn die Platten das hergeben würden.
OK, du hast meine Aufmerksamkeit. Wo finde ich eine Schritt-für-Schritt-Anleitung für:
* Automatisches Backup für Windows 10 inkl. gemounteter Netzwerklaufwerke
* Client-side encryption
* Behält alle NTFS-Metainformationen bei
* Locations hinzu/ausschließen
* Je nach Location sofortiges Backup (bspw. alle 15min) oder 1x in der Nacht
* Lange Historie pro Datei (gestaffelte Snapshots, sprich 1yr ago, 1month ago, 1 week ago, 1day ago, each backed up version since then) inkl. Deleted-File-Restore
* Support falls das Backup kaputt ist
* (Kostenpflichtige) Zusendung von HDDs falls ich ein Komplett-Restore benötigeWenn es für die Amazon-APIs da schon tolle Frontends gibt, dann sehe ich mir die natürlich an Bin auch bereit dafür zu zahlen. 1-Mann-OSS-Projekte ist mir für Backups aber zu happig, ich will auch in 5 Jahren wenn der/die sein/ihr Interesse verloren hat immer noch eine Software haben.
MfG SideWinder
Edit: Schritt-für-Schritt-Anleitung oder installierbares Programm. Ich will mir selbst nichts zusammenbasteln müssen, da ist die Chance, dass ich etwas falsch mache zu groß und dafür sind mir meine Backups zu wichtig.
-
Such dir auf Google ein entsprechendes Programm welches auf die API von Amazon oder Google oder Dropbox zugreifen kann....
Mit Backups kenne ich mich nicht aus. Ich sichere das wichtige auf Github.
-
Das wichtigste ist und bleibt rClone. Ein auf GO aufbauendes Projekt für die meisten Cloudspeicher API´s. Du kannst damit Kopieranweisungen ähnlich zu rsync aufbauen. Also COPY SYNC und MOVE Operationen aufbauen. Das + ZIP Komprimierung und das Feature rClone CRYPT bieten doch schon in kombination das meiste von deinen Punkten.
* Behält alle NTFS-Metainformationen bei
Das bietet AFAIK keiner.* Support falls das Backup kaputt ist
Das gibt es nur bei S3, SCaleway usw.* (Kostenpflichtige) Zusendung von HDDs falls ich ein Komplett-Restore benötige
Das bietet heute auch kaum einer mehr an.
-
cloudistueberall schrieb:
Ich sichere das wichtige auf Github.
Hrhr, zeigst du mir bitte dein Git-Repository wo die 320GB Fotos hinsollen, ganz Geschweige von Video-Aufnahmen
MfG SideWinder
-
cloudistueberall schrieb:
Das wichtigste ist und bleibt rClone. Ein auf GO aufbauendes Projekt für die meisten Cloudspeicher API´s. Du kannst damit Kopieranweisungen ähnlich zu rsync aufbauen. Also COPY SYNC und MOVE Operationen aufbauen. Das + ZIP Komprimierung und das Feature rClone CRYPT bieten doch schon in kombination das meiste von deinen Punkten.
Na ich seh mir das rClone mal an, aber ich hab irgendwie das Gefühl, dass ich da noch ziemlich viel frickeln muss. Und ob mir das die 70€ im Jahr weniger wert sind ... noch dazu, wenn mein Stundensatz da nach spätestens 2h aufgebraucht ist ... ich glaub nicht. Aber danke für deinen Input, bin nicht 100%ig zufrieden mit Crashplan und freue mich über jegliche Alternativ-Vorschläge.
MfG SideWinder