Последние десять-пятнадцать лет характеризуются стремительным развитием информационных технологий, радикальным изменением архитектуры вычислительных сетей, появлением принципиально новых возможностей для быстрого и эффективного внедрения сложных приложений, совсем недавно доступных только очень большим и богатым компаниям, а теперь — и предприятиям малого и среднего бизнеса.
Повсеместное распространение средств виртуализации поставило крест на господствующей недавно идеологии строительства сетей «один сервер — одно приложение». Развивающиеся параллельно с виртуализацией архитектуры грид-вычислений, а также программного обеспечения и сервисов по запросу (SaaS) привели к созданию принципиально нового подхода к построению ИТ-инфраструктуры, получившего с легкой руки Эрика Шмидта название «облачные вычисления» (Cloud Computing). Теперь, не вкладывая значительных средств в создание вычислительной сети и обеспечивающей ее инфраструктуры, по запросу можно получить приложения (AaaS), платформу (PaaS), инфраструктуру (IaaS) или практически все, что пожелаете (XaaS). Рост производительности виртуальных инфраструктур и пропускной способности каналов связи позволяет предоставлять эти услуги именно тогда, когда они нужны, именно в том объеме, который требуется, а при росте потребностей — оперативно наращивать вычислительные мощности в реальном масштабе времени. Что очень важно, и оплата производится строго за оказанную услугу, что позволяет клиенту эффективно использовать свои средства.
Столь значительные изменения заставляют по-новому взглянуть на всю систему предоставления информационных сервисов, обеспечение их безопасности и заново оценить допустимый риск, который может быть принят в обмен на новые возможности.
Необходимо также учесть, что российские требования к обеспечению информационной безопасности (ИБ) имеют свою национальную специфику, важнейшей чертой которой является необходимость применения в определенных условиях только сертифицированных средств защиты информации, в частности, в государственных информационных системах и при обеспечении безопасности обработки персональных данных.
Рассмотрим последовательно те проблемы, которые возникают в связи с внедрением новых технологий, и те допустимые границы, в которых необходимо оставаться при оценке возможности их применения, дабы не потерять контроль над уровнем безопасности обрабатываемой информации.
Отмечая стремительное развитие виртуализации (в 2009 г. количество виртуальных машин в мире превысило количество физических серверов) и прогнозируя ее почти экспоненциальный рост в перспективе, компания IDC в отчете за 2010 г. с тревогой отмечала, что уже сегодня 60% виртуальных машин защищены хуже, чем их физические аналоги, а 40% проектов в области виртуализации выполняются без привлечения специалистов в области информационной безопасности. Главная проблема заключается в том, что виртуализация несет в себе ряд новых специфических угроз, с которыми не могут справиться традиционные средства защиты в силу специфики построения виртуальной инфраструктуры. Основная проблема в том, что в системе появляется новый «суперпользователь» — администратор виртуальной инфраструктуры с практически неограниченными возможностями. Зачастую на одном физическом хосте виртуальными машинами обрабатывается информация различной степени критичности (конфиденциальности), при этом трафик между виртуальными машинами, находящимися на одном хосте, не покидает его и не может быть отслежен и проанализирован традиционными средствами, а виртуальные машины и функционирующие на них приложения не привязаны к одной физической платформе, и, следовательно, не могут защищать большинством средств, жестко связанных с конкретной операционной системой.
Такие особенности вычислений с использованием средств виртуализации приводят к появлению принципиально новых классов угроз, наиболее типичными и в то же время опасными из которых являются следующие:
- атаки на гипервизор с виртуальной машины;
- атака на гипервизор из физической сети;
- атаки на средства администрирования виртуальной инфраструктуры;
- атаки с одной виртуальной машины на другие внутри хоста;
- Атаки на сети репликации виртуальных машин, в том числе, при переносе их на другие физические серверы (vMotion).
Не обеспечив эффективных мер противодействия этим новым угрозам, не убедившись в надежности средств защиты, их нейтрализующих, крайне безответственно было бы переносить вычисления в виртуальную среду, какие бы выгоды она ни сулила.
Еще сложнее становятся проблемы, когда мы обращаемся к применению облачных вычислений, теме, постепенно ставшей главной для ИТ-сообщества, оттеснившей на задний план собственно виртуализацию, вопросы катастрофоустойчивости и непрерывность бизнеса, не говоря уж о таких недавних хитах, как возврат инвестиций и оценка совокупной стоимости владения. По оценке уже упоминавшейся аналитической компании IDC, облачные вычисления — одно из самых динамичных направлений развития информационных технологий, с предполагаемыми средними темпами роста 45,5% в год до 2015 г.
Преимущества облачного подхода очевидны — предприятиям и организациям для применения новейших, современнейших приложений уже не нужно серверное оборудование и персонал, все, включая прикладное программное обеспечение, можно взять в аренду и оплачивать по фактическому использованию, переложив бремя поддержания работоспособности, эксплуатации, обновления и прочее на провайдера услуги.
Когда мы говорим о частных облаках, фактически наследующих грид-архитектуру, проблемы безопасности более или менее понятны и решаемы, хотя и там не все просто. Облако принадлежит конкретному, идентифицированному владельцу, защищающему распределенную информационную систему вполне традиционными средствами, и фактически вся «облачность» сводится к управлению нагрузкой и перераспределению вычислительных мощностей в виртуальной инфраструктуре.
Оценивая же возможность переноса своих вычислений в публичные облака, не имеющие, строго говоря, четких границ, владельцев производственных мощностей, которые были бы известны клиенту, и описываемого периметра, далеко не все специалисты выражают оптимизм. Так, Ричард Столлман, идейный лидер движения открытого программного обеспечения, еще в 2008 г. в интервью Интернет-порталу газеты Guardian заявил: «Использовать веб-приложения для своих вычислительных процессов не следует, например, потому, что вы теряете над ними контроль. ... Если вы используете любую проприетарную программу или чужой веб-сервер, вы становитесь беззащитными, становитесь игрушкой в руках того, кто разработал это ПО».
Прежде, чем перенести свои информационные ресурсы в облако, любой их владелец должен самому себе ответить на три неизбежных вопроса:
- Что вы будете делать, когда у вас не окажется доступа к Интернету?
- Что вы будет делать, когда провайдер откажет вам в услуге?
- Что вы будете делать, когда ваши данные бесследно исчезнут?
Значимость этих простых вопросов подтверждают многочисленные примеры облачных практик. Инциденты в облаках были, есть и всегда будут латентными в силу архитектуры сервиса. И о многих не знают не только клиенты, но и сами владельцы.
К самым очевидным проблемам, которые встают перед пользователем облачных сервисов, представляется необходимым отнести следующие:
- обеспечение защиты данных пользователей услуги;
- невозможность предоставления клиенту полного контроля над своей информацией после оказания услуги (проблемы удаления и модификации информации);
- фактическая незащищенность каналов обмена данными в публичном облаке, использующем Интернет в качестве транспорта.
При этом, передавая в облако свои приложения, клиент получает полный спектр проблем, связанных с каждой из составных частей архитектуры: доступом через Интернет и атаками на элементы облака (прокси- и реверс-прокси-сервера, web-сервера, сервера приложений, сервера баз данных, СХД и т. д.), безопасностью виртуальной инфраструктуры, о которой говорилось выше, безопасностью приложений, предоставляемых по запросу, и безопасностью собственно самого клиента, поскольку надежный доступ — дорогой и сложный, а провайдеры в поисках снижения издержек предлагают наиболее простые и дешевые решения. Как известно, рвется там, где тонко. А таких тонких мест в рассматриваемой архитектуре пока слишком много.
В заключение краткого анализа проблемы облачных вычислений хотелось бы привести мнение аналитика Gartner Грега Крайзмана: «Облако не схоже со старыми моделями развертывания и использования ПО, при которых ПО устанавливается и управляется внутри организаций, и поскольку провайдеры SaaS используют другие интерфейсы, теперь существует риск попадания под большее количество атак, а также большее количество людей обладают доступом к данным».
Сейчас на рынке появляются все новые решения, направленные на повышение уровня защищенности данных при использовании современных технологий. Теперь акцент делается именно на данные, а не на безопасность сети, как ранее. Однако отсутствие наработанных практик, длительной апробации предлагаемых решений и пугающая тенденция создания принципиально новых средств нападения типа наделавшего много шума червя Stuxnet или целого класса средств под общим названием Advanced Persistent Threat, направленных против конкретной жертвы и ее конкретных ресурсов, требуют в этот непростой период консолидации усилий специалистов в области защиты информации, совместного поиска решений.
Остановить прогресс с области информационных технологий нельзя. Но нельзя и принести безопасность данных в жертву удобству, стоимости и скорости их обработки.
Михаил Емельянников, независимый эксперт рынка ИБ
Полная электронная версия этой статьи доступна только для подписчиков. Для получения полной электронной версии статьи сейчас Вы можете оформить запрос.