Последний месяц на постсоветском интернет-пространстве отметился серией громких утечек информации.

В открытом доступе оказались тексты смс-сообщений части абонентов одного из российских операторов мобильной связи, выписки по транзакциям клиентов крупного украинского (точнее — даже международного) банка, перечень покупателей довольно специфического интернет-магазина. Финальным аккордом стала подборка документов с грифом «для служебного пользования», принадлежащих различным государственным органам Российской Федерации.

Перечисленные «сливы» — не результат деятельности очередного Джулиана Ассанжа или иного «борца за правду». Все куда прозаичнее — виновниками событий стали неодушевленные программы, а именно поисковые боты таких систем, как Яндекс и Google.

Как известно, поисковые роботы предназначены для того, чтобы перебирать интернет-страницы и заносить информацию о них в базу данных поисковика. Грубо говоря, робот «заходит» на страницу, запоминает ее содержимое, находит ведущие с нее гиперссылки, переходит по ним и повторяет процесс заново. «Поиск целей» для индексирования может производиться и за счет других источников, например, с использованием ссылок, доступных в «фирменных» системах мониторинга посещаемости сайтов, предлагаемых поисковиками. Большинство владельцев сайтов используют ту или иную систему этого типа.

Утечку данных можно было бы запросто предотвратить одним из нескольких простых способов, реализация каждого из которых требует нескольких минут работы. Почему этого не было сделано? Очевидно, владельцы сайтов (особенно это относится к государственным органам и крупным компаниям) живут в ином масштабе времени. Разработанные еще в девяностых или построенные по принципам того времени веб-страницы не соответствуют требованиям сегодняшнего дня. В мире ИТ один месяц — уже значительный отрезок времени, и поэтому организации, для которых десять лет — не срок, никогда не смогут угнаться за развитием таких технологий.