Top-Themen

AppleEntwicklungHardwareInternetLinuxMicrosoftMultimediaNetzwerkeOff TopicSicherheitSonstige SystemeVirtualisierungWeiterbildungZusammenarbeit

Aktuelle Themen

Administrator.de FeedbackApache ServerAppleAssemblerAudioAusbildungAuslandBackupBasicBatch & ShellBenchmarksBibliotheken & ToolkitsBlogsCloud-DiensteClusterCMSCPU, RAM, MainboardsCSSC und C++DatenbankenDatenschutzDebianDigitiales FernsehenDNSDrucker und ScannerDSL, VDSLE-BooksE-BusinessE-MailEntwicklungErkennung und -AbwehrExchange ServerFestplatten, SSD, RaidFirewallFlatratesGoogle AndroidGrafikGrafikkarten & MonitoreGroupwareHardwareHosting & HousingHTMLHumor (lol)Hyper-VIconsIDE & EditorenInformationsdiensteInstallationInstant MessagingInternetInternet DomäneniOSISDN & AnaloganschlüsseiTunesJavaJavaScriptKiXtartKVMLAN, WAN, WirelessLinuxLinux DesktopLinux NetzwerkLinux ToolsLinux UserverwaltungLizenzierungMac OS XMicrosoftMicrosoft OfficeMikroTik RouterOSMonitoringMultimediaMultimedia & ZubehörNetzwerkeNetzwerkgrundlagenNetzwerkmanagementNetzwerkprotokolleNotebook & ZubehörNovell NetwareOff TopicOpenOffice, LibreOfficeOutlook & MailPapierkorbPascal und DelphiPeripheriegerätePerlPHPPythonRechtliche FragenRedHat, CentOS, FedoraRouter & RoutingSambaSAN, NAS, DASSchriftartenSchulung & TrainingSEOServerServer-HardwareSicherheitSicherheits-ToolsSicherheitsgrundlagenSolarisSonstige SystemeSoziale NetzwerkeSpeicherkartenStudentenjobs & PraktikumSuche ProjektpartnerSuseSwitche und HubsTipps & TricksTK-Netze & GeräteUbuntuUMTS, EDGE & GPRSUtilitiesVB for ApplicationsVerschlüsselung & ZertifikateVideo & StreamingViren und TrojanerVirtualisierungVisual StudioVmwareVoice over IPWebbrowserWebentwicklungWeiterbildungWindows 7Windows 8Windows 10Windows InstallationWindows MobileWindows NetzwerkWindows ServerWindows SystemdateienWindows ToolsWindows UpdateWindows UserverwaltungWindows VistaWindows XPXenserverXMLZusammenarbeit

Sites abfragen, Code erhalten

Frage Internet Webbrowser

Mitglied: rsadmchef

rsadmchef (Level 1) - Jetzt verbinden

13.01.2014 um 19:26 Uhr, 1263 Aufrufe, 10 Kommentare

Hallo TEAM

ich hoffe ihr könnt ein wenig weiterhelfen...
Benutze verschiedene Browser, hauptsächlich FF und Opera

Meine Site enthlät 25 Links mit Verweisen zu weiteren Sites

http://www.blah-blupp.de/site1.php?refcode=21
http://www.blah-blupp.de/site1.php?refcode=22
http://www.blah-blupp.de/site1.php?refcode=23
....


in den nun geklickten 25 Sites ist je ein weiterer Link zum Klicken

http://www.blah-blupp.de/mega/site1.php?refcode=212121
http://www.blah-blupp.de/mega/site1.php?refcode=222222
http://www.blah-blupp.de/mega/site1.php?refcode=232323
...

also in allen Seiten ähnlich.

Diese Links möchte ich alle zusammenführen als Text in einer Datei.

Nun meine Frage.
Kann der FF oder Opera in die Lage versetzt werden, diese in den wohlgemerkt -nicht- geklickten Sites aufgeführten Links
zu "sourcen" und per Script in eine Datei dumpen ?, möglicherweise mit einem ADDON oder einem Userscript

Danke für Eure Hilfe.

Gruß rsadmchef



Mitglied: certifiedit.net
13.01.2014 um 19:37 Uhr
Nein Opera und FF können das (meines Wissens nach nicht | Bei zig Add Ons - wer weiss) - aber: Httrack kann das ganze relativ easy ableisten.
Bitte warten ..
Mitglied: colinardo
13.01.2014 um 20:00 Uhr
Hallo rsadmchef,
z.B. mit einem Powershell-Script kein Problem, kann ich dir morgen mal hier abladen

Grüße Uwe
Bitte warten ..
Mitglied: rsadmchef
14.01.2014 um 05:50 Uhr
hallo certifiedit

WebHTTrack Website Copier
webhttrack

hab ich installiert.

Das tool leistet das so nicht ab.
local copy nur vom viewable file des browsers.

Derzeit nicht brauchbar.

gruß
rsadmchef
Bitte warten ..
Mitglied: rsadmchef
14.01.2014 um 05:56 Uhr
hallo colinardo,

ja bitte.
ich versuchs dann in bash-scripting zu übersetzen,
weil mein bs auf meinem rentner-lappi ein lubuntu 10.04 ist.

vlt. kann man mit JAVA was machen weils universeller ist.
Eine JAVA-jre hab ich drauf

Gruß rsadmchef
Bitte warten ..
Mitglied: Snowman25
14.01.2014 um 09:27 Uhr
Hallo rsadmchef,

schonmal was von webspiders bzw. scrapern gehört?
Die können genau das, was du brauchst!
Da gäbe es zum beispiel scrapy.

Gruß,
Snowman25
Bitte warten ..
Mitglied: certifiedit.net
14.01.2014 um 09:30 Uhr
Hallo rsadm,

dann musst du ggf. die Einstellungen bearbeiten / How To lesen.

Die PHP Dateien wirst du so aber von keiner Seite bekommen.

LG
Bitte warten ..
Mitglied: colinardo
14.01.2014 um 09:53 Uhr
Zitat von rsadmchef:
ja bitte.
ich versuchs dann in bash-scripting zu übersetzen,
weil mein bs auf meinem rentner-lappi ein lubuntu 10.04 ist.
bin noch unterwegs, bis dahin kannst du dir diesen Beitrag mal anschauen, da habe ich etwas ähnliches bereits präsentiert:
http://www.administrator.de/contentid/222295

Grüße Uwe
Bitte warten ..
Mitglied: colinardo
14.01.2014, aktualisiert um 11:10 Uhr
also wenn die ersten 25 Links alle auf einer Seite sind könntest du folgendes Shell-Script als Muster hernehmen um aus den Seiten dieser Links die anderen Links zu extrahieren:
01.
#!/bin/bash 
02.
_STARTSEITE='http://www.blah-blupp.de/site1.php' 
03.
_LINKS=$(curl -s $_STARTSEITE | grep -Eo 'http://www\.blah-blupp\.de/site1\.php?refcode=[0-9]+') 
04.
_ALLLINKS="$_LINKS\n" 
05.
for link in "$_LINKS";do 
06.
  _CONTENT=$(curl -s $link) 
07.
  _SUBLINKS=$(echo "$_CONTENT" | grep -Eo 'http://www\.blah-blupp\.de/mega/site1\.php?refcode=[0-9]+')   
08.
  _ALLLINKS+="$_SUBLINKS\n" 
09.
done 
10.
echo -e "$_ALLLINKS" >extracted_links.txt
Da ist jetzt für eine Ebene, oder willst du die Links auf der Unterseite ebenfalls weiterverfolgen ? also rekursiv alle Links ?
Dies könntest du auch mit wget machen. Erst alle Links der Site extrahieren und diese dann an grep pipen und die gewünschten Links extrahieren.

Grüße Uwe
Bitte warten ..
Mitglied: rsadmchef
17.01.2014 um 05:28 Uhr
Hallo colinardo,

hab ich halbwegs verstanden.
curl lädt einen Link vom Server, der sich wie eine Abmeldung darstellt: "Sie werden in 5 sekunden auf die Startseite umgeleitet". und es gibt keine Links.

Manuell stellt es sich so dar:
Der Browser zeigt die Startseite. Es öffnen sich Tabs beim Betätigen der Links.
Da habe ich also 25 Tabs.
Dazu müsste ich aber alle Tabs durchschalten, um den Code zu grep_en...
Trotzem super.
aber keine Lösung.


Gruß rsadmchef.
Bitte warten ..
Mitglied: colinardo
17.01.2014 um 08:40 Uhr
tja, wenn wir nicht wissen wie die Seite genau aufgebaut ist, können wir hier wenig ausrichten !!
Poste doch mal einen Link zu der Seite wenn's geht...
Bitte warten ..
Neuester Wissensbeitrag
Humor (lol)

Linkliste für Adventskalender

(3)

Information von nikoatit zum Thema Humor (lol) ...

Heiß diskutierte Inhalte
Router & Routing
gelöst Ipv4 mieten (22)

Frage von homermg zum Thema Router & Routing ...

Exchange Server
gelöst Exchange 2010 Berechtigungen wiederherstellen (20)

Frage von semperf1delis zum Thema Exchange Server ...

Windows Server
DHCP Server switchen (20)

Frage von M.Marz zum Thema Windows Server ...

Hardware
gelöst Negative Erfahrungen LAN-Karten (19)

Frage von MegaGiga zum Thema Hardware ...