Aloha ;)
das stösst mir doch sauer auf:
So eine Aufwandsbetrachtung ist eben wirklich davon abhängig, wie teuer die verschiedenen einzelnen summierten "Elementaroperationen" sind.
Jain. Bei einer konkreten Performance-Analyse hat du recht, aber bei der Aufwands-Abschätzung eines Algorithmus betrachtet man dessen asymptotisches Verhalten. Da ist der konstante Aufwand
k
für eine Operation irrelevant und wird deshalb weg gestrichen. Man will halt die Skalierung des Algorithmus betrachten, und nicht wie er sich bei kleinen Datenmengen verhält (hust denn da ist es eh scheiss egal).
Das kommt aber ganz elementar darauf an, ob der Aufwand mit n skaliert oder nicht. Im Fall eines Arrayzugriffs halte ich es schon für möglich, dass der Overhead eben nicht konstant ist, sondern mit n anwächst. Ansonsten hast du natürlich recht, mir ist schon auch klar, dass konstante Faktoren für Aufwandsbetrachtungen uninteressant sind.
Ursprünglich ging ich davon aus, dass der Overhead mit n skalieren könnte - was du mit deinen Testdaten ja nun widerlegt hast.
Grüße,
RIDER
Camping_RIDER a.k.a. Riders Flame a.k.a. Janosch Zoller Erreichbar manchmal im Self-TS (ts.selfhtml.org) oder sonst - wenn online - auf dem eigenen TeamSpeak-Server (fritz.campingrider.de) oder unter: # Facebook # Twitter # Steam # YouTube # Self-Wiki # ch:? rl:| br:> n4:? ie:% mo:| va:) js:) de:> zu:) fl:( ss:| ls:[