Das eigentliche Problem kurz umrissen: ein Benutzer startet irgendeinen Prozess und schickt einen dementsprechenden Request zum Server. Dieser verarbeitet dies und schreibt Start (Serverzeit) und Endzeitpunkt (Serverzeit + Prozesszeit) in eine Datenbank. Danach schickt der Server die neuen Daten wieder zum Client, ob der Prozess gestartet wurde oder ob dies nicht geklappt hat etc. Der Client schaut nun ob es geklappt hat und setzt einen Timer der Runterzählt bis der Endzeitpunkt erreicht ist. Wenn diese Zeit erreicht ist, dann schickt der Client wieder einen Request zum Server um die neusten Daten zu erhalten.
Wenn nun der Client um 1 Sekunde dem Server nachläuft, dann ist der Prozess zwar für den Client beendet aber nicht für den Server. Was dann zu Problemen führt wie zum Beispiel das der Timer nach dem Response wieder für eine Sekunde aufblitzen oder ähnliches.
Grundsätzlich finde ich die ganze Fragestellung ja schon spannend! Nur ist mir völlig unklar, wie der Server denn überhaupt exakt wissen kann, wann der "Endzeitpunkt" eintritt. Er kann schätzen, raten... aber wissen? Prozesszeit ist nie exakt und vielen Faktoren abhängig…
m.E. ist daher der Ansatz schon kaputt.