Alexander Ganz: Zuverlässiger Provider gesucht & (bissl OT: Hilfe gebraucht)

Hallo Allerseits,

vielleicht wissen einige von euch mehr als ich, was die Providersuche angeht. Habe mich jedenfalls mal bei Webhostlist umgesehen - bin aber - bei den Anfoderungen - nicht so richtig fündig geworden.
Hosting ist ja ausserdem Vetrauenssache, wenn ihr wisst was ich meine....
Hier mal die Leistungen, die ich benötigen würde:

Windows 2000
Asp unterstützung
Installation von eigenen DLL´s
mind. 500 - 1000 MB Speicherplatz
Logfiles
mind. 10 GB Traffic
MS SQL Server 7.0 oder 2000 mit Zugriff über Enterprisemanager
Unbegrenzt viele Pop-Accounts - Einzurichten über Webinterface

Bei meinem aktuellen Provider gibt es zunehmend Schwierigkeiten mit den Email Accounts - dauernd nicht erreichbar... etc...
Ausserdem zweifle ich daran daß mein Provider in Zukunft der Last
Standhalten wird die durch meine Seite verursacht wird.
Im Moment sind das mehr als 1 Mio Pageviews im Monat - Tendenz: Extrem steigend!!!
Das ganze sollte natürlich auch konstengünstig sein *lach*, da es sich um ein privates Projekt handelt (jedenfalls noch).
BTW: Falls sich jemand für´s Thema interessiert (ist ja nicht jedermann´s Sache) und mir etwas zur Hand gehen möchte (nein, nicht so), hier gibt´s noch mehr Infos: http://www.gayroyal.de/intern/gayroyal.asp - Könnte Unterstützung gut gebrauchen (HTML, JS, ASP, Redaktion, Marketing, Grafik)!
Wer mehr wissen möchte, kann mich gerne anschreiben.
Das war´s von mir aus - würde mich freuen wenn jemand etwas weiss oder mir etwas helfen könnte.

Viele Grüße
Alex

  1. Hi,

    für die von dir gesuchten Leistungen, würde ich dir empfehlen, dich mal auf dem Amerikanischen Markt umzuschauen.

    Ich persönlich bevorzuge "Interkey" als Provider.

    In Deutschland wird es sicherlich schwerer und teurer, einen Provider in der Richtung (Windows basiert) zu finden.

    Gruß, Frank

  2. Hi Alex,

    Windows 2000
    Asp unterstützung
    Installation von eigenen DLL´s
    mind. 500 - 1000 MB Speicherplatz
    Logfiles
    mind. 10 GB Traffic
    MS SQL Server 7.0 oder 2000 mit Zugriff über Enterprisemanager

    hängen Deine Anwendungen definitiv so stark an der M$-Welt?

    Im Moment sind das mehr als 1 Mio Pageviews im Monat

    • Tendenz: Extrem steigend!!!

    Hast Du an trafficsparenden Maßnahmen schon alles ausgereizt? Du scheinst ja eigene Anwendungen zu betreiben - wie sieht es da aus mit Caching und Komprimierung?
    Auch wenn es da bei M$ offenbar keine fertigen Lösungen für dynamischen content gibt (für statischen wohl schon) - selber schreiben könnte in Deinem Fall drin sein, wenn Du wirklich 10 GB Traffic produzieren willst.

    Das Self-Portal hat im Mai 2002 durch solche Maßnahmen seinen Traffic von 80 auf 40 GB/Monat halbiert - inzwischen sind es schon wieder über 50 GB/Monat ...

    Viele Grüße
          Michael

    1. Hi Michael

      hängen Deine Anwendungen definitiv so stark an der M$-Welt?

      äh, wenn man nun mal mit Microsoft seine Anwendung entwickelt hat, ist es imho ein geringerer Aufwand, einen Provider zu suchen der diese Features bietet statt seine Lösung auf PHP oder Perl und sonstwas zu portieren...

      Auch wenn es da bei M$ offenbar keine fertigen Lösungen für dynamischen content gibt (für statischen wohl schon) - selber schreiben könnte in Deinem Fall drin sein, wenn Du wirklich 10 GB Traffic produzieren willst.

      z.b. Entsprechende Lösungen für bereichsweises, seitenweises, applikationsweises Caching sind mit dem .net Framework (und ASP.net) möglich.

      Das Self-Portal hat im Mai 2002 durch solche Maßnahmen seinen Traffic von 80 auf 40 GB/Monat halbiert - inzwischen sind es schon wieder über 50 GB/Monat ...

      schön (ersteres)

      Viele Grüße
            Michael

      Ebenfalls viele Grüße,
      Frank

      1. Hi Frank,

        z.b. Entsprechende Lösungen für bereichsweises, seitenweises,
        applikationsweises Caching sind mit dem .net Framework (und ASP.net)
        möglich.

        und was davon wird in welcher Weise eingesetzt? Eine Million Hits bei so wenig Traffic, das ist ein krasses Mißverhältnis in meinen Augen.

        Viele Grüße
              Michael

        1. Hi Frank,

          z.b. Entsprechende Lösungen für bereichsweises, seitenweises,
          applikationsweises Caching sind mit dem .net Framework (und ASP.net)
          möglich.

          und was davon wird in welcher Weise eingesetzt? Eine Million Hits bei so wenig Traffic, das ist ein krasses Mißverhältnis in meinen Augen.

          Viele Grüße
                Michael

          Hi Michael,

          also, okay, das mit dem Cachen deinerseits hab ich erst gerade mit deinem Antwortposting auf A. Ganz richtig verstanden, dass du den Browser Cache des Clients meintest.

          Die Cache-Funktionalität in .net bezieht sich auf Verminderung des Aufwandes zum erstellen von dynamischem Inhalt, speziell, was Datenbezüge anbelangt, aber auch den einfachen Output von statischen Elementen.

          als Beispiel: ganze Seiten mit z.b. one-way Datenbankausgaben lassen sich komplett cachen, aber auch Caching anhand von Parametern (die aus dem Header kommen können - POST-Vars) ist möglich. Da .net Anwendungen eigentlich nur noch aus Klassen bestehen und "alles irgendwie vererbbar ist" kann man das Caching auch nur auf bestimmte Bereiche einer Page-Klasse beschränken.

          Das ist schon mal eine Mega-Verbesserung gegenüber dem aktuellen ASP, wo man sich den Cache quasi selbst basteln mußte um die Performance der Anwendung auf dem Server zu verbessern.

          Aber es löst immer noch nicht das Problem mit dem Traffic... wie ich gerade festgestellt habe, bietet .net keinen nativen Support für GZIP
          es gibt aber OpenSource Mods wie für den Apachen.

          Was mich interessieren würde, wäre eine Dokumentation über die Header-Geschichtchen, die man dem Client so mitteilen kann...

          wenn du da einen Link hättest.

          Gruß, Frank

          1. Hi Frank,

            Was mich interessieren würde, wäre eine Dokumentation
            über die Header-Geschichtchen, die man dem Client so
            mitteilen kann...
            wenn du da einen Link hättest.

            hm ... etwas Besseres als den RFC 2616 habe ich da leider nicht anzubieten. Noch nicht ...

            Viele Grüße
                  Michael

            1. Hi Frank,

              Was mich interessieren würde, wäre eine Dokumentation
              über die Header-Geschichtchen, die man dem Client so
              mitteilen kann...
              wenn du da einen Link hättest.

              hm ... etwas Besseres als den RFC 2616 habe ich da leider nicht anzubieten. Noch nicht ...

              Viele Grüße
                    Michael

              Hi nochmals,

              danke, RFC 2616 ist schonmal ein Suchansatz :-)

              ja, was spezifische GZIP-Komprimierung betrifft, schwirren da für .net schon einige 3rd Party Components herum... ansonsten erlaubt es ja die Server-Version von IIS5, Kompression auf Serverebene zu definieren.

              Yo, denn mal n shcönes Wochenende, bis Montag wieder,
              tschau, Frank

    2. Hallo Michael,

      hängen Deine Anwendungen definitiv so stark an der M$-Welt?

      Yepp! Nun ist es halt so geschrieben und ich bin mit der Lösung sehr glücklich, denn es funktioniert und ist ausserdem sehr, sehr schnell.
      Das ganze umzuprogrammieren... nein!

      Im Moment sind das mehr als 1 Mio Pageviews im Monat

      • Tendenz: Extrem steigend!!!

      Hast Du an trafficsparenden Maßnahmen schon alles ausgereizt? Du scheinst ja eigene Anwendungen zu betreiben - wie sieht es da aus mit Caching und Komprimierung?

      Nun, alle Seiten sind voll dynamisch, es gibt keine gecachten Seiten. Meines Wissens nach sind auch keine Komponenten derart beim Provider installiert.
      Einen eigenen Cache habe ich bereits geschrieben (HTML Seiten werden bei Abruf generiert und beim nächsten Aufruf herausgegeben), sehe aber keine Vorteile dabei, denn die Geschwindigkeit bleibt gleich und der Datentransfer wird auch nicht kleiner. Deshalb ist der Cache momentan deaktiviert.
      In Komprimierung kenne ich mich nicht aus - lässt sich aber ändern - muss mal schauen, was es da so gibt in der MS Welt.

      Aber vielen Dank für die Tipps auch an Frank.
      Am besten wird es wohl sein, wenn ich mir einen Serverplatz miete und einen eigenen Rechner einstelle...
      Mal schauen - bisschen Zeit ist ja noch...

      Liebe Grüße
      Alex

      1. Hi Alexander,

        meld dich doch mal per Mail bei mir.

        Gruß, Frank

      2. Hi Alex

        Nun, alle Seiten sind voll dynamisch, es gibt keine gecachten Seiten.

        wie Du der laufenden Diskussion zu diesem Forum entnehmen kannst, kann man durchaus auch dynamische Seiten cachen lassen.

        Meines Wissens nach sind auch keine Komponenten derart beim Provider
        installiert.

        Wozu müssen da "Komponenten installiert" sein? Erlaubt Dir Microsoft nicht, Zeichenketten Deiner Wahl nach stdout auszugeben? ;-)

        Einen eigenen Cache habe ich bereits geschrieben (HTML Seiten werden
        bei Abruf generiert und beim nächsten Aufruf herausgegeben),

        Ich meinte eigentlich eher die Verwendung der Browser-Caches Deiner Besucher - welche HTTP-Header erzeugst Du, um denen das Leben leichter zu machen? Ich dachte, wir reden von Deinem Traffic - nicht von der CPU-Belastung der Maschine.

        In Komprimierung kenne ich mich nicht aus - lässt sich aber ändern

        • muss mal schauen, was es da so gibt in der MS Welt.

        Aha. Welcher Prozentsatz Deiner Seiten bzw. Deines Traffic-Volumens ist reiner Text (HTML, JavaScript oder ähnliches?) Je mehr, desto mehr lohnt sich Komprimierung. Wenn Du viele Graphiken oder ähnliches Medien-Zeug auslieferst, dann nützt es nicht so viel.

        Viele Grüße
              Michael