hi Danke für Deine Hinwise!
Mein Ziel ist eine BinärDatei die mit JS lesbar ist.
JSON ist auch mit Javascript lesbar und man kann sich jeden beliebigen JSON- oder Text-Editor nehmen, um es gegebenenfalls zu bearbeiten. Ein proprietäres Binärformat hingegen benötigt ein Spezialwerkzeug und das Wissen um die Spezifikation dieses Formats. Das würde ich wegen schlechter Wartbarkeit ablehnen.
Das Format dieser Binary ist vollkommen egal. In Fragen Wartbarkeit steht das Format überhaupt nicht zur Disposition.
Das Problem ist also nicht
dass aus Seitentiteln wie beispielweise "HTML/Tutorials" oder "Kategorie:HTML" irgendwie ein Dateiname erstellt werden muss
Ach, nicht? Was soll denn da am Ende rauskommen? Eine Art SPA, die sich aus einem Binärdatengrab bedient? Also quasi ein Webserver?
Ja, natürlich eine SPA. Das verlinkte Beispiel einer Solchen ist eine HTML Datei mit einer eingebetteten Binary die derzeit 100 Dokumente beeinhaltet. Bei jedem online-Aufruf wird die SPA neu erstellt, damit hat die Wiki-Redaktion überhaupt nichts zu tun. Und nachdem die SPA erstellt und ausgeliefert wurde, kann sie an einem beliebigen Ort unter einem beliebigen Namen gespeichert werden wo sie dann völlig eigenständig funktioniert -- eben mit der Scriptsprache die ein jeder moderner Browser bei sich hat: JavaScript.
Und selbstverständlich ist da auch die Library eingebettet, die aus der eingebetteten Binary eine griffige Datenstruktur in den Hauptspeicher legt was der SPA den wahlfreien Zugriff auf die Dokumente ermöglicht. So ergibt sich eine einfache Suchfunktion über den zu jedem Dokument gehörigen aussagekräftigen Titel respektive einer aussagekräftigen Beschreibung, beides wird über eine <datalist> bereits beim Eintippen einzelner Buchstaben in das Suchfeld geladen womit schließlich das dazugehörige Dokument in den <body> geholt werden kann sobald der Anwender Enter drückt.
Bei allem Respekt zu Eurer geleisteten Arbeit, leider haben die Dokumente im Mediawiki keinen aussagekräftigen Titel und eine (Kurz)Beschreibung fehlt völlig. Eine Suchfunktion muss also direkt in die Inhalte greifen und zunächst eine Trefferliste erzeugen. Und genau da fällt einem das Problem der fehlenden Beschreibungen ein zweites Mal auf die Füße.
Ansonsten ist es schon ein lohnenswertes Ziel über das man mal nachdenken sollte: Daß man mit einem einzigen Klick eine Offline Version des Mediawiki mit aktuellem Datenbestand auf seinen lokalen PC bekommt und mit demselben Klick jederzeit ein Update machen kann.
sondern wie ich Kategorie-Seiten und #Weiterleitungsseiten beim Extrahieren des Content rausfiltern kann.
Die Kategorien werden in den beiden erwähnten Tabellen verwaltet. Jede Kategorie hat (genauer: kann haben) außerdem eine Page, die sich im Namensraum für die Kategorien befindet.
Ich bleib' dran und studiere Doku. Die Render-Engine zu verstehen ist noch das kleinste Problem 😉
MfG