Комментарии к статье ""
14.6.2001 16:38 Тимур [] В общем интересно. У меня был аналогичный случай с рекурсией. Создал файл index.php и в нем задал комманду $im=ImageCreateFromPng("www.имя_хоста.ru/моя_папка"); Других файлов там просто небыло. Скрипт был в состоянии отладки и имя открываемого файла-картинки я просто забыл вписать. В результате скрипт открыл то, что у него прописано открывать по умолчанию index.*. И так до бесконечности. Сервер очень быстро повесился. |
14.6.2001 17:56 leosha [] Орет - потому что писать то надо о чем-то... Деньги платят за килобайты. =) Вот и пишет всякий бред. |
15.6.2001 09:46 Дмитрий [] И про килобайты написано правильно... Увы, и это часто встретишь... И не только на dz.yandex.ru :=(((((((((( Но вот в чем автор прав, так это в том, что инструмент надо использовать по назначению: тогда и надежность выше и всем удобнее. Об этом, кстати, свидетельствуют отзывы на оригинальную статью. А то, что сейчас стало *модно* лепить PHP где надо и, чаще всего!!!!, где НЕ НАДО и это у кого-то может вызывать раздражение, причем по разной причине, - тоже правильно. |
16.6.2001 00:06 nant [] "Зная архитектуру системы всегда можно найти способ ее уронить" (с) не помню. Это относится и к флудерам и к mod_rewrite. mod_rewrite весьма функциональная штука с довольно большой документацией (такой sed и awk для приходящих запросов), которую тоже стоит читать.... Там описано, что rewrite будет идти пока не надоест, или пока дополнительное условие не перестанет выполняться. Очень помог бы, я думаю, флаг 'last' у правильно заданного RewriteCond. А отслеживать работу mod_rewrite лучше через директиву RewriteLog. Кстати... сервера похоже не умирают, как программы, а просто выжирают память. Интересно было бы посмотреть на реакцию сервера, когда он выжрет ее всю. Я думаю, что на Unix системах сервер не умрет, а прибьет соответствующий процесс, который захапал всю память. И потом эту память вернет обратно.... только вот ждать обычно не хочется... а система начинает очень медленно работать. Про то, что человек орет... это все-таки он зря. Если ты заинтересован в посещении своего сайта, тогда ты краулерам yandex, google и всем прочим будешь даже рад нагенерировать нужный контент (что и происходит :))). Именно для этого краулеры и светятся. Потому как можно создать проблемы тем людям, которые добросовестно публикуют информацию на своих сайтах и не занимаются накруткой релевантности своих страниц. Например сменил Яндекс провайдера и ip адреса поменялись или добавил еще машин, которые выкачивают сайты, с другими ip, которых ты не знаешь.... и не будет переиндексации у ресурсов с content-manager'ами пока все не узнают об этой смене. Так что лучше всего краулерам представляться через поле User Agent заголовка HTTP. Тогда если тебе надо будет добавить новый поисковик, которому нужен особый контент, то ты всего лишь добавишь еще одно сравнение по полю User Agent. Стандарты в поисковых системах вряд ли появятся. Если только де-факто. А то что платят за килобайты, так рыба ищет где глубже, а человек - где рыба :)) wbr /nant |