Frage Blender Dokumentation von Wikibooks Download

bastla

mit bastla_Assi
Hallo zusammen!

Ich möchte gerne die Blenderdokumentation von Wikibooks auf meinem PC offline speichern. Leider meldet mir WinHTTrack, dass die Seite nicht gefunden wurde, wenn ich sie downloaden lassen will:(!
Das ist komisch, denn so eine Meldung hat er noch nie angezeigt. (Also Fehler 404, der Link ist natürlich OK)

Meine Frage wäre jetzt, ob jemand die schon gedownloadet hat oder ein besseres Freeware Saugtool hat.
Sollte möglichst die aktuellste Version der Dokumentation sein ;)

Freu mich schon auf Antworten und Gruß
bastla
 
Eine andere Möglichkeit besteht darin auf die Hauptseite von blender auf wikibooks zu gehen und oben den Buchgenerator ("Diese Seite zu deinem Buch hinzufügen") anzuklicken.

Nun klickst Du auf "Sammlung anzeigen", das ist der Link gleich rechts davon und hier klickst Du immer noch oben auf "Seiten vorschlagen". Jetzt siehst Du auf der linken Seite Vorschläge, die Du hinzufügen kannst, indem Du bei den gelisteten Möglichkeiten auf die Pluszeichen klickst UNTERHALB des Haupttitels, der auch unter den Vorschlägen, aber innerhalb eines blauen Rahmen steht.

Wenn Du alle Seiten der Sammlung beigefügt hast, kannst Du nun auch auf den Vorschlag innerhalb des blauen Rahmens (also auf das Pluszeichen davor) klicken. Jetzt spicken wieder einige Vorschläge unten rein, die Du erneut in die Sammlung aufnimmst, und wenn Du da richtig fleissig klickst hast Du in kurzer Zeit Deine Auswahl, die Du dann noch ins PDF, odt oder OpenZIM (kenne ich nicht) konvertieren und dann runterladen kannst.

Spiel einfach mal rum damit - irgendwie ganz ulkig - funktioniert bei der Blenderdokumentation recht gut; beim gallischen Asterix wollte wikibook aber nicht gross was vorschlagen.
 
@ZuluDC:
Danke für deinen Post! An eine PDF hatte ich auch schon gedacht, aber dann habe ich nicht dieses komfortable Feeling, dass ich mich einen Artikel direkt reinklicken kann, statt lange in einem Buch blättern. Außerdem wäre die Spiegelung direkt im Browser anpassbar (Größe verändern etc.).

Daher wäre mir eine Spiegelung recht nett (Hätte ich vlt in meinen ersten Post posten sollen, sorry :S).

Wüsstest du denn, welche Einstellungen ich in WinHTTrack vornehmen kann, damit der 404-Fehler vermieden wird? Wäre echt dankbar.

Viel Spaß mit Firefox 4 und Gruß
bastla
 
WinHTTrack muss ich zuerst mal angucken, kenne ich gar nicht. 404/Fehler heisst doch nicht gefunden oder so. Vielleicht Linktiefe oder sowas zu knapp....

ot:
Ist doch voll grausig Posts mit englischen Tastatursatz zu verfassen *seufy*

Ja genau - Hopp Firefox
 
Danke für die Antwort!

interne Linktiefe hab ich auf 3 gestellt,
externe Linktiefe auf 0.

Das Problem ist, dass er mir den Fehler schon meldet, bevor er irgendetwas heruntergeladen hat.

Hoffe, dass es für die Dokumentation noch Hoffnung gibt und Gruß
bastla
 
Also ich habe eigentlich gar keinen Schimmer von der Materie, mir aber von Anfang an gedacht, dass Du irgendein Tool verwendest, dass den Online-Auftritt offline zur Verfügung stellen soll.

Bei mir bricht der Vorgang auch immer sofort ab. Nachdem ich aber angegeben habe, es soll fleissig debuggt werden, habe ich in einem Logfile immer was von Fehler 403 und keinem Zugriff gelesen. Nun habe ich die Browser-ID zu einem Googlebot mutiert:

Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html) - siehe hier

...und angegeben die robots.txt solle nicht ausgelesen oder ignoriert werden. Da ich mir bei den restlichen Angaben nicht sicher war habe ich einfach husch eine Auswahl vorgenommen - nun zieht webhttrack das halbe Internet runter.

Später mal schauen was den wirklich hier auf der Platte angekommen ist. Sollte de.wikibooks.org heute nicht mehr erreichbar sein wird es an meinen Anfragen des Servers liegen. :D
 
Nochmal danke für die Antwort!

Bei mir kam, wie gesagt, nicht der Fehler 403, sondern 404 - es könnte ja vielleicht ein Zusammenhang bestehen.

Wo kann man denn die Browser-ID ändern?

Da ich auch befüchtet habe (wie es bei allen Saugtools ist), dass er das ganze Internet runterlädt, habe ich externe Tiefe immer auf 0 stehen :D. (Spart übernatürlich viel Speicherplatz ;):D)

Vielen Dank nochmal und Gruß
bastla

Edit: Hab die Browser-ID-Verstell-Funktion gefunden!

Edit: Ich glaub's nicht. Er saugt wirklich! Nochmal vielen Dank!
 
Gern geschehen :)

Was mir auffällt ist, dass ein riesiger Haufen der HTML-Dateien als *.html.tmp auf der Platte landen, was temporär aussieht, aber eben noch lange nicht alle html-Dateien sind davon betroffen.

Irgendwo ist da auch was in den Optionen von webhttrack zum Auswählen von tmp-Dateien. Mal schauen ob die Dateien sich noch der Endung tmp entledigen werden (bin noch am Laden - will heissen Download-Terrorist). Zumindest wird wikibooks Google einen rüden Brief schreiben, weil ihre Bots unglaublich Traffic verursachen ohne was an die Kosten für die Server beizutragen. :D

Wenn Du sowas in der nächsten Zeit im Internet lesen wirst, tauche ich mal ein Weilchen unter... :lachweg
 
Kannst mir deine Arbeit ja mal per PN zukommen lassen, da ich jetzt erst grad angefangen habe zu laden, und erst 155 der 2921 (es werden von Sekunde zu Sekunde mehr *seufz*) Seiten hab - und das bei nur 20 KiB/s (hab's vergessen aufzudrehen) :D;).

Falls du mal in die Schlagzeilen kommen solltest - ich werd's überlesen!

Gruß
bastla

Edit: Download jetzt abgebrochen. Sonst brechen die Server wirklich noch zusammen ;)!
 
Was mir auffällt ist, dass ein riesiger Haufen der HTML-Dateien als *.html.tmp auf der Platte landen, was temporär aussieht, aber eben noch lange nicht alle html-Dateien sind davon betroffen.
Alle die, bei denen HTTrack meint, dass sie entweder noch geändert werden oder bei denen es sich noch nicht schlüssig ist, ob es eine Dublette ist oder nicht. Sie landen übrigens auch noch in einem komprimierten Ordner, der für Update Zwecke missgebraucht wird, damit beim aktualisieren des Projekts nur die geänderten Dateien heruntergeladen werden müssen ...

Es empfiehlt sich übrigens, auch mal mit der Filterung zu arbeiten, das spart einen Haufen unnützer downloads, allerdings muss man sich dann für jede Site einzeln damit beschäftigen, denn das ist sehr spezifisch...

PS: Multi Wikis sind echt übel schwer einzugrenzen, ihr könnt ja mal berichten, was sonst noch so alles heruntergeladen wurde ;)
 
Ich merke schon - da kennst sich jemand mit HTTrack aus :)

Es scheint so zu sein, dass zuerst mal die .htm/.html erfasst werden, aber temp-Dateien sind bis die Links innerhalb dieser Dateien analysiert wurden und dann HHTrack bei den meisten Link, die sich ausserhalb des "Download-Projekts" befinden die Fehlerseite als Link integriert.

Das mit dem komprimierten Ordner ist mir auch aufgefallen, weil die Donwloadgrösse mir einfach abartig erschien und ich bei einer Linktiefe von 3 quasi plötzlich zu einem der wichtigsten Spiegelserver des halben Internets wurde. :D

Ich habe zwar nur schnell geguckt gestern, aber mir erschien der komprimierte Ordner mit der Spiegelung der Dateien nur "lose" zu indexieren ohne direkten Bezug der Links innerhalb dieser Seiten. HTTrack hat es nicht geschafft alle Links, die ausserhalb des Projekts liegen mit der Fehler-/Umlenkseite auszustatten; es bleiben massig tote Links innerhalb der Seiten.

Ich bin jedenfalls nach reiflicher Überlegung zum Entschluss gekommen, dass sich die auch heruntergeladenen Webseiten über den Menstruationszyklus der Frauen sowie Albert Einsteins Relativität nicht direkt auf den Webauftritt des Blender-Handbuchs beziehen. :rofl

@bastla: file ist online
 
War anzunehmen, dass da noch andere Sachen bei sind :rofl

Man kann auch eine Linkliste erstellen und HTTrack damit füttern, ich mache das meistens mit XENU und sortiere und entmülle die dann passend und stelle die Verlinkungstiefe auf 1 ein, das haut dann nicht so rein....
 
Habe mir jetzt auch die Dokumentation gesaugt und bin jetzt nach 5 h fertig ;).

Hab interne Linktiefe auf 3 gestellt,
externe auf 0.

Bei ZuluDCs Version (bitte nicht böse sein ;)) fehlt fast die Hälfte. Bei mir ist soweit alles gesaugt, auch noch Wikibooksquatsch, den ich zwar nicht brauche - aber immerhin ist die Doku drauf (y).

Die Dokumenation sind 227 MB groß, hab es mit 7-Zip mit 50% Kompressionsrate auf 120 MB gequetscht. Bin jetzt wunschlos glücklich..... und werde jetzt in Blender einge Objekte erstellen ;):D

Noch einen schönen Abend und Gruß
bastla

Post Scriptum: Kann die Spiegelung ja auch mal hochladen, falls einer die noch haben will.
 
Ergänzung (hat oben nicht mehr reingepasst):

PS: Multi Wikis sind echt übel schwer einzugrenzen, ihr könnt ja mal berichten, was sonst noch so alles heruntergeladen wurde ;)

Habe dir mal per CMD die Ordnerstruktur augelistet. (Sind sogar Dateien von 2008 bei :eek:) Wenn du mal Lust hast, kannst du die durchwühlen ;).

Der Text, den du eingegeben hast, besteht aus 1013551 Zeichen und ist damit zu lang. Bitte kürze den Text auf die maximale Länge von 17000 Zeichen.
OOPS :eek:.

Adios Ordnerstruktur! (Gibt's irgendeine Codeseite, wo man den uploaden kann?)

Gruß
bastla
 
Da ich vorhin mit Tipps zum Firefox-Addon ScrapBook im Thread "Komplette Website kopieren" unterwegs war, mit dieser Erweiterung hab ich als Test gerade mal deine Blender Doku heruntergeladen. Mit dem gesetzten Filter für die Zeichenfolge "Blender_Dokumentation" und einer Linktiefe von 1 hat das prima geklappt. Durch den Zeichenfolgen-Filter dürfte aber auch eine wesentlich höhere Linktiefe kaum irrelevanten Schrott herunterladen, externe Links wurden als Links belassen. Damit es für diesen Test nicht zu lange dauert, hatte ich aber den Download von Grafiken etc. nicht eingeschaltet, diese Filter muss man natürlich auch noch setzen. Zwar hast du den Artikel schon, aber für ähnliche Sachen ist der Hinweis vielleicht doch noch nützlich.

Und noch ein kleiner Hinweis zur Beachtung:
Bei größeren Downloads wird der Firefox ab und zu für ein paar Sekunden von ScrapBook blockiert. Das ist aber kein Fehler, so wie es aussieht. Etwas Geduld, nach kurzer Zeit geht es jedesmal weiter.

Übrigens hab ich noch ein Zusatz-Addon dafür gefunden, den ScrapBook CHM Creator, mit dem sich die heruntergeladenen Dateien in eine einzige komprimierte CHM-Hilfedatei umwandeln lassen. Ist mir persönlich lieber, als dieses Sammelsurium aus vielen HTML-, GIF- und Sonstwas-Dateien.
 
Oben