ein aktuelles projekt erfordert einen haufen downloads. diese sollen aber nicht öffentlich verfügbar sein - nicht jeder, der die url weiß, soll die files downloaden können … also einfach die files in ein nicht öffentliches verzeichnis des webservers, und bei einer anfrage den inhalt von dort in die ausgabe reinkopieren.
kein problem also … nur: die files sind manchmal locker an die 50mb groß - schafft das ein durchschnittlicher webserver wohl, ohne in die knie zu gehen, und der komplette restliche ablauf im sumpf versinkt?
schafft das der webserver bei bis zu 50mb-files auch ohne
probleme?
nur wenn der Download schnell genug erfolgt, also innerhalb von 30 Sekunden
Andernfalls wird das PHP Timeout zuschlagen. Du kannst es eventuell mit set_time_limit() höher setzen, das muss aber beim Provider freigeschaltet sein.