Alexender: Dateiübertragung

Hallo,

ich will von einem Server auf anderen eine Datei übertragen. Die Datei ist 20 GB gross. Doch wenn ich wget http.... Befehl ausführe, wird angezeigt, dass die Datei nur 2 GB gross ist und es werden nur 2 GB übertragen.

Wie kann ich von einem Server auf den anderen 20 GB auf ein Mal übertragen? Es handelt sich um ein tgz Archiv.

Gruss Alex.

  1. Hi!

    ich will von einem Server auf anderen eine Datei übertragen. Die Datei ist 20 GB gross. Doch wenn ich wget http.... Befehl ausführe, wird angezeigt, dass die Datei nur 2 GB gross ist und es werden nur 2 GB übertragen.

    Unter Umständen zeigt wget einfach auch nicht mehr an... Darüber hinaus könnte es auch Probleme mit dem Dateisystem geben, insbesondere bei älteren, die so große Dateien noch nicht unterstützen.

    Wie kann ich von einem Server auf den anderen 20 GB auf ein Mal übertragen? Es handelt sich um ein tgz Archiv.

    Wir wärs wenn du das Archiv in mehrere einzelne, kleinere Archive aufteilst und dann z.B. mit scp auf den anderen Server überträgst? Zum Aufteilen der Archive hilft dir die Manpage zu "tar" weiter.

    Grüße,
    Fabian St.

    --
    Meine Website: http://fabis-site.net
    --> XHTML, CSS, PHP-Formmailer, Linux
    ---------------------
    fabi@erde ~# whatis spam
    spam: nothing appropriate
    ---------------------
    Selfcode: ie:% fl:|  br:^ va:) ls:& fo:) rl:( n4:° ss:| de:> js:| ch:| mo:) zu:)
  2. Hi,

    ich will von einem Server auf anderen eine Datei übertragen. Die Datei ist 20 GB gross. Doch wenn ich wget http.... Befehl ausführe, wird angezeigt, dass die Datei nur 2 GB gross ist und es werden nur 2 GB übertragen.

    Da die Übertragung per wget sehr instabil sein kann, wäre es besser, kleine Archive zu erstellen. Mehr als 500 MB pro Archiv würde ich nicht machen.

    Wenn du ads auch noch per Internet überträgst, ist ads eh schon ne Wahnsinnsgrösse.

    Wenn die Rechner in einem Rechenzentrum stehen, würde ich dir empfehlen, das Ganze per Filesysteme zu machen, z.B. SMB.

    MfG
    Manuel

    1. Moin!

      Da die Übertragung per wget sehr instabil sein kann, wäre es besser, kleine Archive zu erstellen. Mehr als 500 MB pro Archiv würde ich nicht machen.

      Hä? Warum instabil? wget ist ein sehr vernünftiger HTTP- und FTP-Client, was soll daran instabil sein?

      Wenn du ads auch noch per Internet überträgst, ist ads eh schon ne Wahnsinnsgrösse.

      Sehe ich anders.

      20 GB ist groß - so groß, dass es auf dem Zielsystem unter Umständen in Begrenzungen laufen kann, die mit "normalen" Dateigrößen nicht erreicht werden. Ältere Dateisysteme verwalten beispielsweise nur Dateigrößen bis 2 GB.

      Andererseits ist 20 GB eigentlich eine recht normale Größe, wenn es um Festplattenbackups geht.

      Wenn die Rechner in einem Rechenzentrum stehen, würde ich dir empfehlen, das Ganze per Filesysteme zu machen, z.B. SMB.

      SMB ist ja nun auch nicht gerade das Vorbild an Stabilität, eher das Gegenteil davon. Und es befreit auch nicht von der Notwendigkeit, dass das Zielsystem mit 20-GB-Dateien umgehen können muß.

      • Sven Rautenberg
      1. Hi,

        Da die Übertragung per wget sehr instabil sein kann, wäre es besser, kleine Archive zu erstellen. Mehr als 500 MB pro Archiv würde ich nicht machen.

        Hä? Warum instabil? wget ist ein sehr vernünftiger HTTP- und FTP-Client, was soll daran instabil sein?

        Weil bei einer solche Dateigrösse die Warscheinlichkeit sehr hoch ist, das der Datenstrom abreisst. Das Problem liegt nicht bei wget sondern am Netzwerk. Wenn die Datenverbindung durch einen Gateway ö.ä unterbrochen wird, musst du die gesammte Datie nochmal übertragen.

        Und diese Erfahrung hab ich des öfteren gemacht, Als ich noch Backupserver ebtrieben hab, das Rechenzentrum des Sourcerechners aber so schlecht angebunden war, das mit nach 200 MB die Verbindung abgerissen ist. Dann erklär mal dem Kunden, das es an seinem Hoster liegt, das ein gescheites Backup nicht möglich ist.

        MfG
        Manuel