Tach,
Und würde ich darüber spekulieren, wie Googles Algorithmen aussehen, würde ich auch eher bei Auges Einschätzung ankommen, als anzunehmen, dass jeglicher Duplicate Content gefährlich ist.
Niemand hat gesagt, dass Duplicate Content per se und in jedem Fall gefährlich ist. Nur die Behauptung identischer Inhalt unter verschiedenen URLs sei kein Duplicate Content ist halt einfach nicht wahr.
die Begriffsfrage hat Auge ja schon in https://forum.selfhtml.org/self/2016/feb/23/frage-zum-duplicate-content-problem/1661600#m1661600 zu klären versucht.
Ich würde davon ausgehen, dass Google URIs normalisiert bevor es diese wertet und es würde mich überraschen, wenn Google http://www.example.com/seite/, http://www.example.com/seite und http://www.example.com/seite/index.htm getrennt führen würde (vorallem, weil das etwas ist, was ich für eine gute Idee hielte und ich sicher kein guter Suchmaschineningenieur bin).
mfg
Woodfighter
P.S. Der englische Artikel von Google verwendet noch eine vorgesehene Beispieldomain, fällt mir gerade auf, Lost in Translation…