hi,
JSON ist auch mit Javascript lesbar und man kann sich jeden beliebigen JSON- oder Text-Editor nehmen, um es gegebenenfalls zu bearbeiten. Ein proprietäres Binärformat hingegen benötigt ein Spezialwerkzeug und das Wissen um die Spezifikation dieses Formats. Das würde ich wegen schlechter Wartbarkeit ablehnen.
Für die Binary ergeben sich ca 10 MB, egal ob als JSON oder anderweitig serialisiert. Bei dieser Datenmenge ist es besser die Binary über die FileAPI zu laden. Das habe ich gerade eben getestet und das nimmt mein FF absolut stressfrei hin:
- die Datei auspacken und die Inhalte in den Hauptspeicher laden
- Inhalte sind ca 4000 Seitentitel plus wiki"HTML"
- das Laden dieser Titel in eine datalist wo das Suchfeld draufsitzt
Ein OfflineWiki dieser Bauart bräuchte also neben der HTMLDatei noch die Datendatei (Binary) und die Aktualisierung würde sich auf die Bereitstellung der Binary zum Download beschränken. Ein Klick auf den Downloadlink würde so die Binary mit den aktuellen Daten einfach neu erstellen (als Export aus dem Wikimedia).
Das wirkliche Problem ist der Wikidialekt, auch nach intensiver Suche habe ich keine Library auftreiben können womit sich bspw. eine {|wikitable|} ordentlich nach HTML umwandeln lässt.
Kann das nicht die Wikisoftware selbst erledigen!? Lass mich mal wissen was Du liefern kannst 😉
MfG