iceget
Goto Top

Upload großer Dateien über Webinterface

Hallo,

habe folgendes Problem:
Installiertes System: Debian 7 64 Bit, 6 GB RAM.
Apache 2 mit PHP 5.3.

Uploadlimit und Maxpostsize wurde auf 5G erhöht. Auch die Executiontime habe ich auf 9999999 geändert.
Leider kann ich trotzdem nur maximal bisschen über 3 GB Dateien hochladen (via POST).

Wie kann ich größere Dateien hochladen (via Webinterface)? Welche andere Möglichkeiten würde es noch geben?
Es geht um Clients die nichts am PC installieren dürfen (keine Administratorrechte besitzen), dennoch sollte die Übertragung größerer Files möglich sowie sicher sein.
Via Webinterface habe ich bereits ein SSL-Zertifikat installiert.

Größe der Files: ~4-8 GB große Dateien...

Am liebsten wäre mir etwas zu dazuzuprogrammieren, wo der Client nur mehr auf einen Link klickt (z.B. GroßeDateien transferieren)
und dann eine Webanwendung aufgeht, die auch über SSL die Dateien übertragt (oder eben sicherer).

Auch SFTP wäre eine Möglichkeit. Wisst ihr, wie ich das Grundsätzlich zu einem WebInterface zusammenfügen kann,
oder eben wie ich die PHP-UploadSize noch weiter erhöhen kann?

Vielen Dank

glg

Content-Key: 221309

Url: https://administrator.de/contentid/221309

Ausgedruckt am: 28.03.2024 um 19:03 Uhr

Mitglied: Cthluhu
Cthluhu 06.11.2013 um 18:20:30 Uhr
Goto Top
Hi,

4-8 GB würde ich nicht mehr als einzelnen Upload übertragen. Vor allem nicht wenn das auf regelmäßiger Basis laufen soll. Die Gefahr, dass während des Uploads was schief geht wäre mir persönlich zu hoch.
Schau dir mal das BitTorrent-Protokoll an. Dieses Protokoll kann gut mit großen Dateien und kommt auch mit Unterbrechungen des Netzer während des Übertragens gut zurecht.
Nur die Recherche zu diesem Protokoll ist leider etwas mühselig weil man dabei zu oft mit Angeboten aus der rechtlichen Grauzone konfrontiert wird.

mfg

Cthluhu
Mitglied: Cthluhu
Cthluhu 06.11.2013 um 18:23:34 Uhr
Goto Top
Hi nochmal,

Mir ist noch was eingefallen: Für Ajaxplorer/Pydio gibts das JumpLoader Plugin. Das zerlegt große Dateien, überträgt diese in kleinen Chunks und setzt sie am Server wieder zusammen. Wie gut das in der Praxis funktioniert kann ich nicht sagen, da ich es selber noch nicht getestet habe.

mfg

Cthluhu
Mitglied: nxclass
nxclass 07.11.2013 aktualisiert um 11:56:31 Uhr
Goto Top
... man könnte eine Netzwerk Resource freigeben auf die jeder Client zugriff hat und Dateien bereitstellen kann.
Ein cron schaut in den Ordner und wenn eine Datei vorhanden ist, wird diese an eine andere (sichere) Stelle kopiert/verschoben und weiter verarbeitet.

Einen Webserver mit sowas zu belasten ist Käse - SSH/FTP sind für sowas gut.
Mitglied: iceget
iceget 18.11.2013 um 09:57:12 Uhr
Goto Top
Hallo,

danke für die Antwort.

Ich habe folgendes nun im Einsatz (funktioniert perfekt (auch Dateien die größer als 10 Gigabyte sind):
http://www.albanx.com/ajaxuploader/examples.php?e=1

lg Markus