Безопасность данных при пользовании интернет сайтом
  • Итак грешным делом безопасность данных зачастую оставляет желать лучшего, все начали грешить на robots.txt
    По сути он дает понять боту, что тот или иной раздел индексировать не нужно, там мусор, но этим файлом ни в коем случае не нужно пытаться обезопасить данные, это не вариант.
    - Этот вариант исключительно для того чтобы дать понять поисковику что тут мусор сюда лезть не нужно. Кроме того этим файлом вы показывает где важная информации может быть и что нужно ломать злоумышленнику.

    Для обеспечения безопасности данных сайта необходимо правильно настраивать работу сервера, где расположен сайт. Нежелательные к просмотру данные(файлы, папки) необходимо блокировать специальными командами из файла .htaccess и также внимательно относится к работе скриптов, и сессий

    например нужно запретить доступ к файлу с паролями .pass всем кроме определенных ip

    Код
    <Files ".pass">
    Order Deny,Allow
    Deny from all
    Allow from 100.22.22.2, 100.22.22.2
    </Files>
    и т.п.

    Если вас просто достали все поисковые боты можете объявить им байкот, для этого в файле .htaccess использовать конструкцию

    Код
    SetEnvIfNoCase User-Agent "^Yandex" search_bot
    SetEnvIfNoCase User-Agent "^Yahoo" search_bot
    SetEnvIfNoCase User-Agent "^igdeSpyder" search_bot
    SetEnvIfNoCase User-Agent "^Robot" search_bot
    SetEnvIfNoCase User-Agent "^Googlebot" search_bot
    SetEnvIfNoCase User-Agent "^msnbot" search_bot
    SetEnvIfNoCase User-Agent "^Aport" search_bot
    SetEnvIfNoCase User-Agent "^Mail" search_bot
    SetEnvIfNoCase User-Agent "^bot" search_bot
    SetEnvIfNoCase User-Agent "^spider" search_bot
    SetEnvIfNoCase User-Agent "^php" search_bot
    SetEnvIfNoCase User-Agent "^Parser" search_bot

    <Limit GET POST HEAD>
    Order Allow,Deny
    Allow from all
    Deny from env=search_bot
    </Limit>


    Можете в этот файл добавить своих надоедливых ботов, также можно защитится и от спама, блокируя плохих ботов.

    Ну и собственно если вы желаете предоставлять комфортный и безопасный сервис, то работайте с протоколами https ssl


  • Можете в этот файл добавить своих надоедливых ботов, также можно защитится и от спама, блокируя плохих ботов.
    Ну и собственно если вы желаете предоставлять комфортный и безопасный сервис, то работайте с протоколами https ssl

    1. Банить по IP лучше через фаервол сервера (если из хостингов выросли) - так можно более гибко запрещать или разрешать что-либо. Например, сделать недоступным для брутфорсовых ботов ssh, или ограничить доступ к базам данных (чтобы было обращение к ним только с Ваших сайтов).

    2. Вы бы поаккуратнее такое писали, а то ведь новички могут принять это как руководство к действию, и забанить роботов Яши и Гугла. А потом будут спрашивать, почему их сайт из поисковиков вылетел...
  • 1. Банить по IP лучше через фаервол сервера (если из хостингов выросли) - так можно более гибко запрещать или разрешать что-либо. Например, сделать недоступным для брутфорсовых ботов ssh, или ограничить доступ к базам данных (чтобы было обращение к ним только с Ваших сайтов).

    2. Вы бы поаккуратнее такое писали, а то ведь новички могут принять это как руководство к действию, и забанить роботов Яши и Гугла. А потом будут спрашивать, почему их сайт из поисковиков вылетел...

    ) там же написано
    "Если вас просто достали все поисковые боты можете объявить им байкот,"

Привет, незнакомец!

Похоже, Вы новенький! Чтобы начать обсуждение, кликните на одну из кнопок ниже ;)

Войти с помощью OpenID

Категории

В этой теме: