parser

Написать ответ на текущее сообщение

 

 
   команды управления поиском

Кэширование страниц в рабочей директории

Jk 30.10.2010 05:46 / 30.10.2010 06:05

Детально изучаю механизм кэширования страниц (в частности, класс CachePage) и как-то мне не нравится, что чтобы обработать сохранённую страничку вызывается парсер. Собственно, первый вопрос - можно ли этого избежать? Я замерил время выполнения и затраты памяти - да, на сложных страницах разница ощутима, а вот на мелких - почти нет - всё-равно скрипт сколько-то сжирает.

Второй вопрос - это вариант того как это сделать, нуждающийся в критике. Мне кажется, что в нём где-то есть очень слабое место, но не могу понять где.

Суть в том, чтобы не кэшировать страницы с помощью cache вне пользовательской части сайта, а сохранять в рабочей области сайта сформированные страницы типа /news/2010/10/index.html, /articles/blablabla/index.html (в текстовом формате). Если сервер не находит запрошенную страницу, он передаёт запрос парсеру, который проверяет, может ли он отобразить её. Если может - формирует код и кладёт его на сайт, если не может - показывает соответствующую ошибку.

Устаревание страниц решается с помощью скрипта, который запускается кроном и периодически чистит страницы. Уникальность страниц решается нормальными урлами. Понятно, что это не универсальное решение, но для многих сайтов могло бы использоваться.

Так вообще кто-нибудь делает? Где тут ошибки?
Спасибо

Upd. Кажется, такое уже было. http://www.parser.ru/forum/?id=73023 - последний пункт - это оно?