BackUp unter Linux
tester
- webserver
morgen!
womit macht Ihr immer Eure backups? vorausgesetzt Ihr habt kein confix auf Eurem server...
cu
morgen!
womit macht Ihr immer Eure backups? vorausgesetzt Ihr habt kein confix auf Eurem server...
cu
z.B. mit tar, cpio, dd und cdbackup
Das kann man dann noch mit ssh/scp u.ä. verbinden, um z.B. automatisch auf einen anderen Server zu sichern (Brandschutz).
Gruß
Reiner
Hallo tester
womit macht Ihr immer Eure backups? vorausgesetzt Ihr habt kein confix auf Eurem server...
Mit Seagate BackupExec, mit ArcServe, mit tar und einer Packoption, sogar mit xcopy ...
Freundliche Grüße
Vinzenz
Hallo Vinzenz
Mit Seagate BackupExec, mit ArcServe, mit tar und einer Packoption, sogar mit xcopy ...
Sorry, hatte das Linux im Thema überlesen :-( Wegen Leuten wie mir ist es nicht verkehrt, sowas im Posting zu wiederholen.
tar und Packoption gilt natürlich auch unter Linux :-)
Freundliche Grüße
Vinzenz
Moin!
womit macht Ihr immer Eure backups? vorausgesetzt Ihr habt kein confix auf Eurem server...
Wenn nichts anderes da ist, mit rsync. Ansonsten lieber mit rdiff-backup.
danke für Eure antworten. nun will ich meine frage doch nochmal etwas einschränken. es sollte damit auch möglich sein, nicht jedes mal wieder alles zu sichern, sondern nach möglichkeit sollte geprüft werden, ob die datei verändert wurde usw. . zudem soll es direkt als tar o.ä. (stark komprimierte) datei abgelegt werden, ohne lange zwischengespeichert zu werden, da es sich um eine relativ große datenmenge handelt.
dann ist ein ssh zugriff nicht erforderlich, da ich lokalen zugriff drauf habe.
auswählen möchte ich nur bestimmte ordner. z.b. den htdocs ordner und /etc .
danach ist vorgesehen, dass das ganze auf cd rw kommt. => split in bestimmte große dateien.
am liebsten würde ich eben eine anwendung für alles verwenden und dann einen crontab eintrag für alles machen :-)
danke