längere PDF-Dokumente werden heutzutage üblicherweise chunked übertragen
Da fällt mir kein offensichtlicher Vorteil ein. Aber vielleicht weißt Du einen und kannst mir auf die Sprünge helfen.
Interessanter wäre aus meiner Sicht (die beschriebenen zip-Dateien könnten ja sehr groß sein...) eine Möglichkeit, einen z.B. durch Verbindungsverlust abgebrochenen Download fortzusetzen zu können (siehe wget -c
, diverse "Downloadmanager" oder die "Download pausieren/fortsetzen"-Funktion mancher Browser).
Dazu müsste man sich wohl mit der Auswertung des Request-Headers und sich sodann mit fopen()
, fseek()
, fread()
befassen und auch verhindern, dass der Download einer inzwischen geänderten Datei fortgesetzt wird (z.B. mittels ETAG oder einem ähnlichem Verfahren). Ob man dem Server den Stress zumutet ist wohl eine Frage der konkreten Aufgabe.