time sed -e "s/DATUM/2020-02-13/g" < test.html > /dev/null
real 0m0,002s
user 0m0,002s
sys 0m0,000s
Da ist das Öffen der Datei (befand sich im Cache), der Aufruf von sed (befand sich im Cache), das "Kompilieren des Regex" und die Ausführung drin.
Dann habe ich mit
for i in {0..1000}; do cat test.html >> test2.html; done
eine Datei mit immerhin 103103 Bytes erzeugt.
time sed -e "s/DATUM/2020-02-13/g" < test2.html > /dev/null
real 0m0,007s
user 0m0,007s
sys 0m0,000s
3, Versuch:
for i in {0..1000000}; do cat test.html >> test3.html; done
(1 Mio +1 Exemplare zu einem zusammengefügt. Das habe ich nach mehreren Minuten (des wuselns unter niedriger Systemlast) abgebrochen und den Prozessor mit …
a=$(cat test.html);
echo "$(for i in {0..1000000}; do echo "$a"; done)" > test3.html
… munter gemacht: nach rund 10 Sekunden war es getan.
test3.html hat nun 8.000.008 (8 Millionen) Zeilen und 103.000.103 Bytes. (103 MB)
time sed -e "s/DATUM/2020-02-13/g" < test3.html > /dev/null
real 0m1,782s
user 0m1,744s
sys 0m0,037s
Fazit: Ist ziemlich schnell.