Website grabben

Bullabeisser

assimiliert
Hallo an alle,

ne Bekannte von mir hat das Problem, dass ihre Website seit mehreren Jahren trotz regelmäßigem "Obolus" nicht mehr gepflegt wird.
Sie kommt auch nicht an den Code der Website ran. So wie es aussieht, werden keine serverseitigen "Teile" eingesetzt (als CGI etc.).

Ich wußte mal ne Freeware, mit der man ne ganze Website (den Code) runterziehen konnte. Ich kann mich beim besten Willen nicht mehr dran erinnern, wie die Software lautete.
Kann mir da jemand auf die Schnelle helfen ?? Das Gedächtnis ist auch nicht mehr das....

Und ja - ich weiß, dass ne Website nach Browserbesuch im Cache liegt. Aber dann müßte ich die ganze Website abgrasen - das ödet zu sehr an.

Danke schon mal.
 
Moin..

sie pflegt ihre eigene Webseite nicht mehr? Oder hat keinen Zugriff mehr auf den Webspace, den sie aber zahlt? Mail an den Provider.

Oder wie? Wenns eh nur html ist, sollte rechtsklick/speichern mehr als ausreichend helfen. Dabei werden auch alle Bilder mit runtergeladen. Link für link durchgehen, fertig.

Das Abgrastool was du womöglich meinst hat was mit ner gewissen Spinne zu tun..

LG
 
Jungs - habt herzlichen Dank.
Das war's. Ab sofort nehm ich das unter meine "kostenlosen", da freundschaftlichen Fittiche.

(Manchmal ist das Hirn wie festgenagelt - aber so ist's im Alter :D - und es wird nicht besser.)
 
Was du versuchen kannst, ist, über Datei -> Neues Projekt, den
Assistenten starten und entsprechende Restriktiven setzen (Ebenen, geladene Seiten, Links, etc.).
 
dann komm ich noch mit httrack, um noch ein Programm zu nennen.

Wo der Wurm drin ist? Beschränk die Suchkriterien, dann will er auch nicht mehr das ganze Internet herunterladen.
 
Oben