Каждой задаче — свой подходящий инструмент. Вы же не будете заказывать Камаз, если Вам нужно перевезти один мешок картошки? Я уже неоднократно показывал, что для подавляющего большинства сайтов текущий вариант слишком избыточен.это не прихоть разработчиков, а проверенная временем практика
1. Для индексированных массивов эта проблема нивелирована. А все современные файловые системы — индексированные, в них нет перебора всего списка.какой массив быстрее перерать в сто или тысячу значений?
2. Если оставить только один уровень папок (опционально), то при 100 файлах в папке это 25 тысяч файлов на пользователя — на порядок больше, чем обычно нужно. Что проще, выбрать по индексу среди 1-100 файлов один раз (на одном уровне) или выбрать один раз из 1-256 (2-й уровень папок) и второй раз из 1-2 файлов? По любой логике, первый вариант будет быстрее. Но даже если это и не так, то всё с лихвой компенсируется уменьшением нагрузки на сервер в разы при ежедневных операциях обслуживания.
Да ничто в движке сайта не смертельно для человека. 😊 Но большие проблемы всегда начинаются и складываются из мелочей. Просто не пойму, что мешает позаботиться о том, чтобы убрать эту мелочь и дать возможность вебмастерам самим решать, какой вариант им больше подходит?Я не отрицаю что папки создаются! Их много, но это не смертельно!
На нормальном хостинге каждую ночь делаются бекапы как БД, так и всех пользовательских папок целиком, включая папки сайтов. Это не быстрая операция, сильно зависящая от количества и размера файловых объектов. На недорогих хостингах есть ограничение на количество этих объектов для каждого пользователя. На дорогих оно тоже может быть, только выше. И даже на своих серверах есть свой технический потолок. С этим вариантом уже столкнулся МегаРостов. И, вероятно, со временем столкнутся и другие люди. Ведь не у всех есть возможность сразу оплачивать дорогой хостинг.но что вы делаете каждый день с файлами?
Далее, админ сайта также заинтересован иметь вторую ежедневную копию сайта в другом месте (дома, на офисном хранилище, на другом хостинге). И в этом случае может быть выгоднее делать инкрементное копирование, а не архивировать папку сайта целиком. А это уже второй проход по папкам. С этим уже столкнулся я. Хотя пока это не сильно напрягает, но зачем усугублять процесс, если несколько строк кода всё решат и в принципе уберут создание лишних папок?
Кроме того, правильные хостеры проводят периодическое сканирование папок пользователей на наличие вирусов — вот ещё один ночной проход по всем папкам.
Если бы создатели Двойки делали "стандартный" движок, они бы скопировали Вордпресс и у них бы никогда не получилась настолько интересная, удобная и отличающаяся от других система. 😉Это стандартная практика.
Нет никакой "стандартной практики", Val. Есть только то, что удобнее в каком-то конкретном случае. (Смотрите пример про Камаз выше). В ситуации, когда пользователи за всё время жизни на сайте сохраняют в лучшем случае по сотне-тысяче файлов, более удобен более простой вариант, чем сейчас. Двухуровневый вариант удобнее только разработчикам движка. Всё, что я предлагал — это дать возможность админам сайтов выбирать подходящий вариант без патчей ядра. Ведь во всей Двойке подход именно такой — минимум правок системных файлов, максимум доступных настроек или возможность изменить что-то внешним кодом (например, хуком). Это, кстати, одно из величайших удобств Двойки, фактически её стандарт. И тут разработчики почему-то отошли от своего стандарта.
Полагаю, что дальнейшее обсуждение данной темы рискует пойти по очередному кругу, не вижу в нём смысла. Всем большое спасибо за участие в теме и её обсуждении. Я для себя нашёл вариант решения, который меня устраивает. Просто добавлю очередной патч, которого могло бы не быть. А остальное — дело и право разработчиков и других пользователей системы.