Кэширование страниц в рабочей директории
Jk 30.10.2010 05:46
/ 30.10.2010 06:05
Детально изучаю механизм кэширования страниц (в частности, класс CachePage) и как-то мне не нравится, что чтобы обработать сохранённую страничку вызывается парсер. Собственно, первый вопрос - можно ли этого избежать? Я замерил время выполнения и затраты памяти - да, на сложных страницах разница ощутима, а вот на мелких - почти нет - всё-равно скрипт сколько-то сжирает.
Второй вопрос - это вариант того как это сделать, нуждающийся в критике. Мне кажется, что в нём где-то есть очень слабое место, но не могу понять где.
Суть в том, чтобы не кэшировать страницы с помощью cache вне пользовательской части сайта, а сохранять в рабочей области сайта сформированные страницы типа /news/2010/10/index.html, /articles/blablabla/index.html (в текстовом формате). Если сервер не находит запрошенную страницу, он передаёт запрос парсеру, который проверяет, может ли он отобразить её. Если может - формирует код и кладёт его на сайт, если не может - показывает соответствующую ошибку.
Устаревание страниц решается с помощью скрипта, который запускается кроном и периодически чистит страницы. Уникальность страниц решается нормальными урлами. Понятно, что это не универсальное решение, но для многих сайтов могло бы использоваться.
Так вообще кто-нибудь делает? Где тут ошибки?
Спасибо
Upd. Кажется, такое уже было.
http://www.parser.ru/forum/?id=73023 - последний пункт - это оно?
- Кэширование страниц в рабочей директории, Jk 30.10.2010 05:46 / 30.10.2010 06:05