2.6k Aufrufe
Gefragt in Internet Browser von deathwing Einsteiger_in (25 Punkte)
Hallo,

ich bin auf der Suche nach einem website-grabber mit einer bestimmten zusatzfunktion. Und zwar soll er nur die Webseiten herunterladen bzw. zu dem Download-Projekt hinzufügen, die ich gerade ansehe. Diese aber vollständig mit allen Inhalten. Ob das durch einen eigenen Browser des Grabbers realisiert ist oder es durch ein ADD-ON für den Internet Explorer abläuft ist mir egal.
Er soll also quasi während dem browsen mit-tracen und sich merken was ich mir anschaue. Allerdings muss er auch damit klar kommen, dass sich die eigentliche Adresse nicht ändert. Es gibt ja verschiedene PHP Seiten auf denen man munter herumsurfen kann, sich die Adresszeile aber nicht ändert. Aber wie das genau funktioniert, versteht ihr mit Sicherheit mehr als ich. Was Internetseiten angeht habe ich ziemlich wenig Ahnung.

Ich hätte eigentlich gehofft das der Offline Explorer das kann, aber wie man in diesem Post des Supportforums sieht kann er es doch nicht: http://forum.metaproducts.com/Post.aspx?ID=5121
Irgendwie verstehe ich dann nichteinmal wozu dieser autosave mode überhaupt da sein soll. Der scheint völlig funktionslos zu sein. Kann mir das jemand erklären?

Technisch sollte es aufjedenfall möglich sein. Es gibt ja diverse Tools für den IE die einem die realen Links auf Bilder etc. anzeigen die der Browser tatsächlich anfordert. Es würde also nur noch dieser kleine Schritt fehlen, diese Links automatisch zu einer Offline-Webseite hinzuzufügen.

MFG

Deathwing

9 Antworten

0 Punkte
Beantwortet von son_quatsch Experte (5.3k Punkte)
Irgendwie verstehe ich dann nichteinmal wozu dieser autosave mode überhaupt da sein soll. Der scheint völlig funktionslos zu sein. Kann mir das jemand erklären?
Der speichert Projekte innerhalb von Offline Explorer in Zeitintervallen, um sich z.B. gegen einen unauffangbaren Absturz teilweise abzusichern. Also nicht das, was dir unter "Auto Save" vorschwebt.

Eine Lösung hab ich nicht für dich, auch wenn der Umstand vergleichsweise trivial ist: es muss nicht mehr als dein Internetverlauf ermittelt und dann runtergeladen werden.
0 Punkte
Beantwortet von flupo Profi (17.8k Punkte)
Was willst du denn mit dem Ergebnis anfangen?
Wenn es nur um die Protokollfunktion geht, kannst du das mit einem Sniffer wie Wireshark machen.
Willst du die Session später "nachsurfen" wird es aufwändiger.

Gruß Flupo
0 Punkte
Beantwortet von deathwing Einsteiger_in (25 Punkte)
Das trifft es relativ gut: Ich möchte die Session später "nachsurfen" können.
Hättest du da eventuell auch eine Lösung parat?
0 Punkte
Beantwortet von son_quatsch Experte (5.3k Punkte)
Fürs "nachsurfen" dürften sich dann auch nur noch Browser eignen. Wenn ich z.B. in Opera den Cache groß und den Verlauf lang genug wähle, surfe ich mir am Tag meine Seiten zusammen, könnte dann in den Offline-Modus wechseln und in allen besuchten Seiten auch jeweils die Links anklicken, die ich schonmal angeklickt hab. Vielleicht ist Firefox genauso schlau mit seinem Menüpunkt "Offline arbeiten". Wie es um andere Browser, wie z.B. Internet Explorer oder Safari bestellt ist kann ich nicht sagen.
0 Punkte
Beantwortet von deathwing Einsteiger_in (25 Punkte)
Ja die Idee geht in die richtige Richtung. Aber die Seiten löschen eben so manche Dinge wieder aus dem Chache.
Also wird ein extra Tool notwendig sein.

Kennt keiner eines?
0 Punkte
Beantwortet von flupo Profi (17.8k Punkte)
Was hältst du davon, die Browsersession als Film mitzuschneiden.
"nachsurfen" geht ja schon deshalb nicht, weil du nicht weißt, wo der nächste Klick erfolgt.
Falls das auch geht, google mal nach Screencam.

Gruß Flupo

Beispiel
0 Punkte
Beantwortet von son_quatsch Experte (5.3k Punkte)
Aber die Seiten löschen eben so manche Dinge wieder aus dem Chache.
Weil sich der Client (sprich Browser) gemäß dem HTTP (sprich "Internet")-Protokoll so verhalten soll - manche Resourcen sollen nicht im Cache verbleiben.

Hinzu kommt, dass dynamischer Inhalt (aka "Web 2.0") unmöglich gespeichert werden kann. Was du suchst ist eine Art Rundum-Sorglos-Paket, was es aber in den ausufernden Wünschen zu komplex macht, um realisiert zu werden.
0 Punkte
Beantwortet von deathwing Einsteiger_in (25 Punkte)
Was? Neineinein. Das ja total daran vorbei.
Ich möchte einfach die Links die ich anklicke auch später wieder verfügbar haben. Ich weiß schon welche ich anklicke und später wieder brauchen werde. Nur sind die meisten websites einfach zu groß um sie komplett zu grabben.Ich würde dann eben die Teile einmal ansurfen die ich später brauche.
Deshalb die Zusatzfunktion wie ich sie im Eingangspost beschrieben habe.
0 Punkte
Beantwortet von deathwing Einsteiger_in (25 Punkte)
"ausufernde Wünsche"?!
Jetzt mach aber mal'n Punkt! So ein schmarrn -.-

Das was ich beschrieben habe sollte doch wohl möglich sein. Wenns nicht anders geht, dann reicht auch ein Tool das einfach die Links sammelt die der Explorer tatsächlich anfordert und sie in eine txt-Datei schreibt. Dann kann ich diese später immernoch in einen website-grabber importieren.
...