Hi!
Aber dann muß der Client im Extremfall die ganze Website crawlen - in einem Feed bekommt man (idealerweise nach Datum/Zeitstempel sortiert) alle Neuerungen unter einer einzigen HTTP-Ressource. Wenn die Response-Header sinnvoll gesetzt werden, kann man sich das Parsen des Feed-Bodys auch sparen, falls keine Änderungen seit dem letzten "Besuch" erfolgt sind.
Nicht nur das Parsen, sondern gleich das „Herunterladen“.
Klar: der Client kann HEAD statt GET verwenden, um die Situation zu checken - sprich: die Aktualität der Feed-Ressource zu überprüfen.
(Das ist allerdings dann bei Webseiten auch wieder nicht anders, so lange sie mit den Caching-Mechanismen von HTTP sinnvoll umgehen.)
Aber: wenn keine Feed/sitemap.xml o.ä. bekannt ist, müssen u.U. alle Webdokumente (geladen und) geparst werden, um zu sehen ob darin neue Ressourcen der Website verlinkt sind. Woher soll der Client das sonst wissen? Die Anzahl der notwendigen Requests ist auf jeden Fall geringer wenn eine (bekannte) Ressource die Änderungen erfasst.
off:PP
"You know that place between sleep and awake, the place where you can still remember dreaming?" (Tinkerbell)