Hallo Cyx,
zunächst ist es eine deutsche Statistik, und es ist eine Statistik mit m.E. nachvollziehbarem Trend, und die Ergebnisse sind ähnlich wie andere deutsche Auswertungen.
Diesen Zusammenhang sehe ich nicht, die Heise-Statistik unterscheidet sich dermaßen aufgrund der speziellen Zielgruppe von jeglichen andere Statistiken (wie du auch sagst), dass ich nicht von einem »allgemeinen Trend« sprechen würde, nur weil sie sich, nach einiger Herumrechnerei, mit *einer* anderen (zweifelhaften) Statistik deckt.
Aber gut, nehmen wir Heise, -sorry, Heft gerade nicht greifbar, erstmal aus dem Gedächtnis!!- ct8/2003, eine Statistik mit rund 4 % NC4. Es handelt sich um NC4.7, d.h. 4.0, 45, 46, 4.8 sind vermutlich mit jeweils 0.5% nicht berücksichtigt.
http://www.heise.de/newsticker/data/anw-06.08.03-003/ sagt 2,0 Prozent für 4.7x und 3,3 für Andere/Unbekannt, das sind im großzügigsten Fall 5,3% - und zwar von den *Browser*-Zugriffen, ich denke mal, dass mindestens 5% auf den sich oft ändernden Heise-Seiten alleine vom Googlebot und Konsorten erzeugt werden.
Auch bei webhits.de ist womöglich 4.8 nicht mitgezählt, ob weil unter der grenze oder ob die ihr Verfahren nich angepasst haben weiss ich nicht. Jetzt bin ich bei heise schon bei möglichen 6%, und wenn ich robots rausnehme kann der Anteil, es geht ja um menschliche Besucher, nochmals etwas höher liegen.
Dieser Anteil wurde bereits herausgenommen, sonst würde die Summe nicht 99,9% ergeben. Also sind die Anteile der Browser gemessen an allen möglichen Clients inklusive Robots geringer, nicht höher.
Schliesslich nähert es sich sogar webhits obwohl Heise überproportinal von neueren Browsern und Opera besucht wird -wirst du mir hoffentlich einfach zustimmen-, Fazit webhits durch Heise grundsätzlich bestätigt, u.U. bei Heise etwas weniger Mainstream, wenn also Heise z.B. 5% NC4 haben mag, und webhits 7%, ist das doch m.E. vollkommen plausibel und bestätigt sich gegenseitig.
Tja, es gibt nur keine Vergleichsstatistiken, auf der anderen Seite stehen solche Zahlen http://www.onestat.com/html/aboutus_pressbox23.html, http://www.w3schools.com/browsers/browsers_war.asp, http://www.thecounter.com/stats/2003/July/browser.php, http://www.google.com/press/zeitgeist.html. Alle diese Statistiken sind wahr, und alle sind sie falsch, wenn man behauptet, dass sie in irgendeiner Weise repräsentativ sind. Ich will nicht die tausendste Statistikdiskussion anfangen und zum x-ten mal damit anfangen, mit Browserstatistiken herumzuwerfen, seit Jahren sind es dieselben Argumente und seit Jahren gibt es widersprüchliche Statistiken und konzeptionelle Nachteile der Messmethoden, ferner fehlen Browserdaten von den wirklich großen und relevanten deutschen (IVW-gedeckten) Angeboten und so weiter.
Zuletzt zur Frage der Statistiken an und für sich. Ich sehe schon bei der juristischen Situation hinsichtlich barrierfreier Seiten die rechtliche Notwendigkeit zur Berücksichtigung solcher Auswertungen.
Keine Ahnung, was das zwangsläufig mit Barrierefreiheit zu tun haben soll. Eine Seite, die beispielsweise Netscape 4 kein äquivalentes Layout bietet und trotzdem grundlegende funktionale Formatierungen vornimmt, um die einfache Aufnehmbarkeit der Inhalte zu gewährleisten, würde ich als barrierefrei bezeichnen. Dem landläufigen Verständnis nach ist auch layoutloses, blankes strukturelles Markup »zugänglich«. Ich persönliche lese diesbezüglich die WCAG anders und für mich geht Zugänglichkeit Hand in Hand mit Benutzbarkeit, aber ich denke, dass man sich darauf einigen kann, dass Barrierefreiheit auf jeden Fall zumindest die simple Lesbarkeit (unter Umständen auch ohne Stylesheet) bedeutet.
Was die BITV in Anforderungen 6 und 10 aussagt, ist meiner Meinung nach für diese Diskussion irrelevant, denn dort geht es um »Verwendbarkeit«. Und selbst wenn ein Browser älter als drei Jahre und der Zielgruppe angeblich weniger als zu 5% verbreitet ist, sollte eine sich barrierefrei bzw. BITV-konform nennende Seite mit diesem Browser trotzdem so gut es geht »verwendbar« sein. Es besteht sowieso in der Regel, schon gar nicht im Hinblick auf Netscape 4, kein Grund, solche Browser komplett auszuschließen, deshalb ist es eine Leichtigkeit, die formalen Anforderungen der BITV in diesem Punkt zu erfüllen. Sich um diese simple Kompatibilität zu drücken, weil die BITV angeblich für diese Browser keine Verwendbarkeit vorsehen, wäre Selbstbetrug. Man müsste ja schon mutwillig if (document.layers) scherdichzumteufel() einbauen, um ein simples HTML-Dokument ohne Formatierungen für Netscape 4 nicht »verwendbar« zu machen.
Wenn man das »Emphasize structure through presentation« bzw. »Structure has been made perceivable« der WCAG 2 außer Acht lässt (welches meiner Interpretation nach stark dazu rät, jedem Browser nach seinen Fähigkeiten ein durchdachtes Design zu bieten), wäre selbst eine Seite, die bspw. NS4 kein Layout bietet, formal WCAG- bzw. BITV-konform und damit juristisch weitgehend unbedenklich, sofern WCAG und BITV als Kriterien anerkannt werden.
Abgesehen davon gibt es nach wie vor keine Statistik, von der man schließen kann, welche Browserverteilung letztlich bei der zukünftigen Zielgruppe einer zukünftigen Webseite vorliegen wird. Insofern zweifle ich die von Roland zitierten BITV-Empfehlung aus verschiedenen Gründen an, sodass nicht die Statistiken den letztlichen Ausschlag geben sollten.
Ausserdem sehe ich die Notwendigkeit kostengünstig und zielgruppengerecht Webseiten zu erstellen.
Mit dem Argument begann der »IE forever«-Thread, nur eben mit anderen Vorzeichen... Für beide Haltungen gibt es passende Statistiken, welche als Belege herangezogen werden können, so kann jeder nach seiner Façon glücklich werden(tm), schade nur, dass beide glauben, sie hätten die einzig mögliche und gültige Wahrheit gefunden.
Weiterhin sehe ich gerade bei JavaScript Aufklärungsbedarf. Clientseitige Techniken sparen Ressourcen, erhöhen ggf. die Usability, und ich gehe wirklich von nahezu 100% Verfügbarkeit aus, wobei ich allerdings immer noch vorsichtig bin Projekte davon abhängig zumachen.
Tja, da kann ich dir auch nicht mehr helfen(tm).
(Im Übrigen bezweifle ich, dass die JavaScript-Anwendungen, welche in entscheidender Weise Server-Roundtrips vermeiden und die Benutzbarkeit verbessern a) zwangsläufig K.O.-Kriterien für den Seitenzugang sind und nicht etwa optional sein können und b) es nicht möglich bzw. ob des Aufwands unzumutbar ist, Alternativen anzubieten, schließlich ist es oft aus Sicherheitsgründen - man denke an clientseitige Formularoperationen - und aus Gründen der Zugänglichkeit für Suchmaschinen sowieso unerlässlich, solche in Betracht zu ziehen...)
Grüße,
Mathias