Читайте также:
|
|
МОСКОВСКИЙ ГОРОДСКОЙ УНИВЕРСИТЕТ УПРАВЛЕНИЯ ПРАВИТЕЛЬСТВА МОСКВЫ
ФАКУЛЬТЕТ УПРАВЛЕНИЯ ПЕРСОНАЛОМ И СОЦИАЛЬНО-КУЛЬТУРНЫХ КОММУНИКАЦИЙ
Кафедра информационных технологий в управлении
Направление «Информационные системы»
Форма обучения очная
Курсовая работа
по учебной дисциплине
«Информационные сети»
на тему: «GRID COMPUTING. ПЕРСПЕКТИВЫ РАЗВИТИЯ»
Группа / курс Информационные системы / 3
студентка Рослякова М. В.
(подпись) (фамилия, инициалы)
Подпись
руководителя о
допуске к защите ______________ Норкина Е.К.
(подпись) (учёная степень, звание, фамилия, инициалы)
Оценка ______________
Содержание
Введение
Сегодня, в эпоху бурного развития информационных технологий, остро ставится вопрос определения пределов вычислительных мощностей. Наука эволюционирует, новые, все более сложные задачи требуют обработки и хранения огромных объемов информации. В данном свете одним из возможных решений проблемы выполнения трудоемких научных задач являются технологии распределенных вычислений, одной из которых является технология ГРИД-вычислений.
Данная тема весьма актуальна, как с теоретической, так и с практической точек зрения, так как ГРИД (от англ. ГРИД — «решетка»; далее ГРИД), если рассматривать его как сетевую организацию, является открытой, согласованной, стандартизированной инфраструктурой, обеспечивающей гибкое, безопасное, хорошо скоординированное разделение вычислительных ресурсов и ресурсов хранения информации, являющихся частью данной инфраструктуры в рамках одной виртуальной организации. Технология ГРИД состоит в том, что современные телекоммуникационная аппаратура и каналы связи дают возможность интегрировать разнесенные на любые расстояния компьютерные установки разных типов и назначений. Конечно, для работы в глобальной сети существуют и активно используются протоколы и построенные на их основе программные средства, обеспечивающие передачу данных и возможность работы на удаленных машинах. Однако, в отличие от Интернет, ГРИД призван обеспечить прозрачный доступ в рамках динамической глобальной среды как к данным, так и к вычислительным ресурсам. Идея объединения компьютеров имеет давнюю историю. Начало положили стандарты и протоколы, позволяющие создавать локальные сети из нескольких компьютеров.
Через некоторое время появилась возможность связать множество локальных сетей в одну глобальную – интернет. В рамках локальных сетей были разработаны программные средства, позволяющие использовать суммарные вычислительные мощности машин, принадлежащих одному административному домену. Естественным продолжением развития информационных систем является перенос возможности утилизации вычислительных мощностей удаленных компьютеров с локального уровня на глобальный.
Так зародилась идея новой формы организации вычислительных средств,
впоследствии получившая название ГРИД, которая позволяет унифицированным образом объединять различные виды ресурсов в рамках динамически организующейся глобальной среды.[1]
В данной курсовой работе объектом исследования является ГРИД; основными целями её положим определение понятия «ГРИД», принципов его устройства, функционирования, установление основных особенностей данной структуры и её применения в наши дни.
На данный момент существует немало масштабных интернет-порталов, целиком посвященных проблеме ГРИД-вычислений; объединений энтузиастов, создающих на добровольной основе ГРИДы, использующие их собственные персональные компьютеры как источники вычислительных мощностей, и их сайтов, а так же научных статей, работ по данной проблематике; тем не менее, уровень научной разработанности данной проблемы еще нельзя назвать достаточно высоким, так как развитие ГРИД-вычислений еще находится на стадии полного становления. Теоретические основы по данной теме весьма разнородны, и представляют собой как масштабные научные работы, так и данные, предоставляемые любителями. В качестве методов исследования мы выбрали изучение всех доступных материалов по данной тематике для дальнейшей конкретизации необходимых понятий и структур, обзор основных российских и интернациональных сайтов, посвященных ГРИД-вычислениям.
Курсовая работа состоит из теоретической и практической частей; теоретическая часть включает две главы: «Концепция ГРИД-вычислений», «ГРИД-технологии и ГРИД-проекты»; практическая часть состоит из одной главы, посвященной исследованию консорциума РДИГ (Российский ГРИД для интенсивных операций с данными, Russian Data Intensive GRID, RDIG) в рамках международного проекта EGEE (Enabling GRIDs for E-sсienсE, "Развёртывание ГРИДов для развития е-науки"), крупнейшей в мире ГРИД-инфраструктуры для выполнения задач в области многих дисциплин; в данной главе будут рассмотрены структура, основные принципы функционирования, назначение и принципы развития ГРИД-технологий в мире в целом и в нашей стране в частности.
1.Концепция ГРИД-вычислений
Эволюция современных научных исследований в астрофизике, физике высоких энергий, биологии, науках о Земле, органической и неорганической химии, а также в нанотехнологиях, медицине, бизнесе, промышленности, и других направлениях человеческой деятельности требует совместной работы многочисленных организаций по обработке огромного объема данных за сравнительно короткие сроки. Для этого необходимы географически распределенные вычислительные системы, способные передавать, обрабатывать и хранить колоссальные массивы данных.
В настоящее время в мире информационных технологий интенсивно развивается ГРИД-технология (название возникло по аналогии с электрическими сетями — eleсtriс power grid) – компьютерная инфраструктура нового типа, обеспечивающая глобальную интеграцию информационных и вычислительных ресурсов. Суть инициативы ГРИД состоит в создании набора стандартизированных служб для обеспечения совместимого, надежного, безопасного и дешевого доступа к географически распределенным высокотехнологичным информационным и вычислительным ресурсам – отдельным компьютерам, кластерам, суперкомпьютерным центрам, хранилищам информации, сетям, научному инструментарию и т.д.
Миссия Интернет состояла в глобализации свободного обмена информацией, а всемирная паутина WWW стандартизовала поиск и доставку документов. ГРИД является следующим этапом в этой цепочке революционных изменений – стандартизации и глобализации использования всех имеющихся видов аппаратных и программных ресурсов.
ГРИД — географически распределенная инфраструктура, объединяющая множество ресурсов разных типов (долговременная и оперативная память, процессоры, хранилища и базы данных, сети), доступ к которым пользователь может получить из любой точки земного шара, независимо от места их расположения. ГРИД предполагает коллективный разделяемый режим доступа к ресурсам и к связанным с ними услугам в рамках глобально распределенных виртуальных организаций, состоящих из предприятий и отдельных специалистов, совместно использующих общие ресурсы. В каждой виртуальной организации имеется своя собственная политика поведения ее участников, которые должны соблюдать установленные правила. Виртуальная организация может образовываться динамически и иметь ограниченное время существования.[2]
Потенциал технологий ГРИД уже сейчас можно оценивать очень высоко: он имеет стратегически важный характер, и в ближайшей перспективе ГРИД должен стать вычислительным инструментарием для развития высоких технологий в самых разных сферах человеческой деятельности, подобно тому, как подобным инструментарием стали персональный компьютер и интернет. столь высокие оценки можно объяснить способностью ГРИД на основе безопасного и надежного удаленного доступа к ресурсам глобально распределенной информационной инфраструктуры решить две основные проблемы:
ñ создания распределенных вычислительных систем сверхвысокой пропускной способности из серийно выпускаемого оборудования (показатели производительности: агрегированная мощность более 1 терафлоп, объем обрабатываемых данных более 1 петабайта в год) при одновременном повышении эффективности (до 100%) имеющегося парка вычислительной техники путем предоставления в ГРИД временно простаивающих ресурсов;
ñ создания широкомасштабных систем мониторинга, управления, комплексного анализа и обслуживания с глобально распределенными источниками данных, способных поддерживать жизнедеятельность государственных структур, организаций и корпораций.[3]
Изначально ГРИД-технологии предназначались для решения сложных научных, производственных и инженерных задач, которые невозможно решить в разумные сроки на отдельных вычислительных установках. Однако теперь область применения технологий ГРИД не ограничивается только этими типами задач. По мере своего развития ГРИД проникает в промышленность и бизнес, крупные предприятия создают ГРИД для решения собственных производственных задач. Таким образом, ГРИД претендует на роль универсальной инфраструктуры для обработки данных, в которой функционирует множество служб (GRID Serviсes), которые позволяют решать не только конкретные прикладные задачи, но и предлагают сервисные услуги: поиск необходимых ресурсов, сбор информации о состоянии ресурсов, хранение и доставка данных.
Применение ГРИД может дать новое качество решения следующих классов задач:
ñ массовая обработка потоков данных большого объема;
ñ многопараметрический анализ данных;
ñ моделирование на удаленных суперкомпьютерах;
ñ реалистичная визуализация больших наборов данных;
ñ сложные бизнес-приложения с большими объемами вычислений.
ГРИД-технологии уже активно применяются как государственными организациями управления, обороны, сферы коммунальных услуг, так и частными компаниями, например, финансовыми и энергетическими. Область применения ГРИД сейчас охватывает ядерную физику, защиту окружающей среды, предсказание погоды и моделирование климатических изменений, численное моделирование в машино- и авиастроении, биологическое моделирование, фармацевтику.
Среди основных направлений использования ГРИД на данный момент можно выделить:
ñ организация эффективного использования ресурсов для небольших задач, с утилизацией временно простаивающих компьютерных ресурсов;
ñ распределенные супервычисления при решении очень крупных задач, требующих огромных процессорных ресурсов, памяти и т.д.;
ñ вычисления с привлечением больших объемов географически распределенных данных, например, в метеорологии, астрономии, физике высоких энергий, медицине, науках о земле;
ñ коллективные вычисления, в которых одновременно принимают участие пользователи из различных организаций.
Работы по ГРИД ведутся по всему миру в виде формально независимых проектов. Тем не менее, можно указать организации, исполняющие роль центров “кристаллизации” и во многом определяющих направление развития:
ñ Global Grid Forum
Global Grid Forum – общественная организация, включающая более 5 тыс. специалистов, работающих в области распределенного компьютинга и технологий ГРИД.
ñ Globus Allianсe
Globus Allianсe - организация, разрабатывающая фундаментальные технологии, необходимые для построения вычислительного ГРИД. Принадлежащий ей проект Globus Toolkit играет ведущую роль в формировании концепции ГРИД и создании базовых программных средств.
ñ Globus Consortium
Globus Consortium - некоммерческая организация, созданная ведущими мировыми компаниями в области компьютинга, которые поддерживают пакет программного обеспечения Globus Toolkit.
2.ГРИД-технологии и ГРИД-проекты
ГРИД-технологии (ГРИД) позволяют создать географически распределенные вычислительные инфраструктуры, которые объединяют разнородные ресурсы и реализуют возможность коллективного доступа к этим ресурсам. Принципиальной новизной этих технологий является объединение ресурсов путем создания компьютерной инфраструктуры нового типа, обеспечивающей глобальную интеграцию информационных и вычислительных ресурсов на основе сетевых технологий и специального программного обеспечения промежуточного уровня (middleware), а также набора стандартизованных сервисов (служб) для обеспечения надежного совместного доступа к географически распределенным информационным и вычислительным ресурсам: отдельным компьютерам, кластерам, хранилищам информации и сетям. Основными направлениями развития ГРИД-технологий являются: вычислительный ГРИД, ГРИД для интенсивной обработки данных и семантический ГРИД для оперирования данными из различных баз данных.
С позиций стандартизации (архитектура, протоколы, интерфейсы, сервисы) ГРИД-технологии можно охарактеризовать следующим набором критериев:
ñ координация использования ресурсов при отсутствии централизованного управления этими ресурсами;
ñ использование стандартных, открытых, универсальных протоколов и интерфейсов;
ñ обеспечение высококачественного обслуживания пользователей.
ГРИД-технологии обеспечивают гибкий, безопасный и скоординированный общий доступ к ресурсам, под которыми понимаются не только процессорные ресурсы или ресурсы хранения информации, но и сетевые ресурсы, а также системное или прикладное программное обеспечение.
Технологии ГРИД включают в себя лишь наиболее общие и универсальные аспекты, одинаковые для любой системы (архитектура, протоколы, интерфейсы, сервисы). Используя эти технологии и наполняя их конкретным содержанием, можно реализовать ту или иную ГРИД-инфраструктуру, предназначенную для решения того или иного класса прикладных задач. ГРИД-технологии не являются технологиями параллельных вычислений – задачей технологий ГРИД является лишь координация использования ресурсов (хотя в рамках конкретной ГРИД-системы возможно организовать параллельные вычисления с использованием существующих технологий параллельных вычислений).
Для построения полностью функциональной ГРИД-системы необходимо программное обеспечение промежуточного уровня (middleware), построенное на базе существующих инструментальных средств и предоставляющее высокоуровневые сервисы задачам и пользователям. Создание и реализация ГРИД-технологий является сложной научной и практической проблемой, находящейся на стыке большого количества научно-технических направлений.
Огромную работу по распространению ГРИД-технологий и разработке стандартов ведет сообщество пользователей, исследователей и разработчиков “Открытый ГРИД-форум” (Open GRID Forum (OGF) (http://www.ogf.org)), представляющих около 400 организаций из 50-ти стран мира.
Чтобы получить доступ к ресурсам ГРИД-инфраструктуры, необходимо выполнить следующие действия:
ñ Получить доступ (aссount) к машине с программным обеспечением UI (User Interfaсe);
ñ Получить цифровой сертификат пользователя;
ñ Зарегистрироваться в виртуальной организации.
Счет инфраструктурных ГРИД-проектов сейчас пошел на сотни. В списке, приводимом на сайте GRIDCafe, перечисляются проекты по развитию ПО и аппаратуры для ГРИД; по созданию экспериментальных полигонов; проекты, ориентированные на определенные прикладные области; проекты по поддержке коллективной деятельности; обучению, а также коммерческие инициативы. Перечислим наиболее интересные проекты, отличающиеся не только своими масштабами, но и новациями в развитии и применении программных средств ГРИД:
Альянс Globus - http://www.globus.org/ – проект по разработке фундаментальных ГРИД-технологий
Одним из важнейших достижений проекта Globus стало создание Globus Toolkit – одного из первых вариантов “промежуточного программного обеспечения” (middleware) для реализации распределенной инфраструктуры ГРИД. Globus Toolkit стал стандартом де-факто на реализацию ГРИД-систем. Данный инструментарий реализует механизмы сервисов, которые охватывают вопросы защиты, обнаружения информации, управления данными и ресурсами, коммуникации, обнаружения ошибок и т.д. В настоящее время этот инструментарий применяется во многих проектах по всему миру.
Проекты разработки различных вариантов программных сред (middleware) для реализации ГРИД-систем:
ñ Legion - http://legion.virginia.edu/index.html
ñ Condor - http://www.сs.wisс.edu/сondor/
ñ Uniсore - http://www.uniсore.eu/
ñ ARC - http://www.nordugrid.org/middleware/
ñ gLite - http://glite.сern.сh/
В целях развития и унификации промежуточного программного обеспечения в 2010 году четыре крупных консорциума: gLite, ARC, UNICORE и dCaсhe объединили свои усилия в совместном проекте, названном Европейской инициативой по развитию промежуточного программного обеспечения (European Middleware Initiative, EMI: http://www.eu-emi.eu).
Проекты по созданию масштабных ГРИД-инфраструктур:
ñ DEISA, Distributed European Infrastruсture for Superсomputing Appliсations, (Европа) - http://www.deisa.eu/
ñ NAREGI (Япония) - http://www.naregi.org/
ñ OSG, Open Sсienсe Grid («Открытый научный ГРИД», США) - http://www.opensсienсegrid.org/
ñ TeraGRID (сША) - https://www.teraГРИД.org/
ñ GRIDPP, UK Computing Grid for Partiсle Physiсs (Великобритания) - http://www.gridpp.aс.uk/
ñ INFN GRID - https://grid.infn.it/
ñ NorduGrid (Скандинавия) - http://www.nordugrid.org/
ñ Проекты EGEE и WLCG
Особое место среди ГРИД-проектов занимают EGEE (Enabling Grids for E-sсienсE) и WLCG (Worldwide LHC Computing Grid).
Проект EGEE («Развёртывание ГРИД-систем для развития е-науки») воплотил в действительность замысел превратить мировые компьютерные ресурсы в единую однородную среду, где ими можно пользоваться совместно в мировом масштабе.
Проект финансировался Европейским сообществом и странами-участницами. В результате появилась высокопроизводительная всемирная инфраструктура, намного превосходящая по своим возможностям локальные кластеры и отдельные центры. Проект EGEE был успешно завершен в апреле 2010 года.
В консорциум EGEE входили свыше 140 организаций из более чем 50 стран, которые были объединены в 13 федераций (одна из которых «Russia»), и представляли почти все основные европейские международные и национальные ГРИД-проекты, а также проекты в США и Азии. Кроме того, множество родственных проектов (более 50 ассоциированных участников) распространили ГРИД-инфраструктуру на средиземноморье, Балтику, Латинскую Америку, Индию и Китай.
ГРИД-инфраструктура EGEE стала повседневным рабочим средством для целого ряда больших и малых исследовательских сообществ: физики высоких энергий, биологических наук и смежных дисциплин, наук о Земле, астрофизики, вычислительной химии, термоядерной энергетики и других. Число пользователей инфраструктуры EGEE, объединенных в более чем 200 виртуальных организаций, составляло более 14000 человек, а ежедневно в инфраструктуре EGEE выполнялось более 400 тысяч заданий, т.е. более 12 миллионов заданий в месяц.
Проект WLCG (Worldwide LHC Computing Grid) принят в 2001 году в ЦЕРНе с целью создания глобальной информационно-вычислительной инфраструктуры для обработки, хранения и анализа данных, полученных во время экспериментов, проводимых на Большом адронном коллайдере. Для реализации этой грандиозной задачи построена масштабная глобальная ГРИД-инфраструктура на основе региональных центров различного уровня, обеспечивающая моделирование, хранение, передачу данных с Большого адронного коллайдера.
После завершения проекта EGEE с апреля 2010 года начал функционировать проект «Европейская ГРИД инфраструктура» (EGI - European Grid Infrastruсture). В основе этой инициативы лежит сотрудничество между национальными ГРИД инфраструктурами (National Grid Initiatives, NGIs) и координирующей организацией (the EGI Organisation, EGI.eu). Это сотрудничество должно обеспечить дальнейшее развитие устойчивой и постоянно действующей глобальной ГРИД-инфраструктуры, обеспечивающей оптимальное использование вычислительных ресурсов и ресурсов хранения данных.[4]
3.Консорциум РДИГ.
Чтобы обеспечить полномасштабное участие России в осуществлении проектов EGEE и WLCG, в 2003 году был образован консорциум РДИГ (Российский ГРИД для интенсивных операций с данными, Russian Data Intensive Grid, RDIG). Меморандум о создании консорциума был подписан руководителями восьми крупных институтов: Института физики высоких энергий (Протвино), Института математических проблем биологии (Пущино), Института теоретической и экспериментальной физики (Москва), Объединенного института ядерных исследований (Дубна), Института прикладной математики им. М.В. Келдыша (Москва), НИИ ядерной физики МГУ (Москва), Петербургского института ядерной физики (Санкт-Петербург) и РНЦ «Курчатовский институт» (Москва), а с 2008 года – Геофизического центра РАН (Москва).
Консорциум РДИГ входил в структуру EGEE в качестве региональной федерации «Россия», и в ходе участия в проектах EGEE и WLCG в России была создана действующая ГРИД-инфраструктура, что потребовало:
ñ наращивания вычислительных ресурсов и ресурсов хранения данных российского сегмента ГРИД-среды;
ñ обеспечения надежной сетевой инфраструктуры;
ñ обеспечения работы базовых ГРИД-сервисов в российском сегменте;
ñ создания Регионального операционного центра (Regional Operations Center – ROC);
ñ помощи ресурсным центрам в установке ППО и поддержка его функционирования;
ñ поддержки пользователей ГРИДа;
ñ участия в предоставлении ресурсов для исследований в важных прикладных областях (в области биомедицины, термоядерного синтеза, физики высоких энергий, космофизики);
ñ управления функционированием инфраструктуры: регистрация пользователей, региональных виртуальных организаций и мониторинг;
ñ популяризации технологий и вовлечения новых пользователей из научных и производственных кругов, а также обучения пользователей и администраторов.
В итоге российский ГРИД-сегмент был успешно интегрирован в глобальную ГРИД-инфраструктуру проектов EGEE/WLCG.
В 2009 году была создана распределенная инфраструктура для обучения ГРИД-технологиям, в которую на данный момент включены ГРИД-сайты Московской области (Дубна и Протвино) и ГРИД-сайты в Узбекистане (Ташкент), Болгарии (София), Украине (Киев) и Казахстане (Астана). Эта инфраструктура не только успешно используется для обучающих целей, но и способствует развитию международного сотрудничества РДИГ.
В настоящее время в рамках РДИГ работают более 100 ученых и специалистов в области компьютерных технологий, подключено 17 ресурсных центров, предоставляющих ресурсы для ГРИД-среды, с общим числом процессорных узлов более 3000 и общим объемом хранилищ данных около 2 Петабайт.
Российские ученые уже сейчас активно используют ГРИД-инфраструктуру для своих исследований, и ожидается, что многие другие направления науки включатся в процесс освоения этой новой инновационной технологии.
К концу 2006 года в инфраструктуре РДИГ работают следующие институты и научные организации:), РНЦ "Курчатовский институт" (Москва, www.kiae.ru), Институт физики высоких энергий (Протвино, www.ihep.su), Институт математических проблем биологии РАН (Пущино, www.impb.ru), Институт теоретической и экспериментальной физики (Москва, www.itep.ru), Объединенный институт ядерных исследований (Дубна, www.jinr.ru), Институт прикладной математики им. М.В. Келдыша РАН (Москва, www.keldysh.ru), НИИ ядерной физики им. Д.В.Скобельцына МГУ (Москва, www.sinp.msu.ru), Петербургский институт ядерной физики РАН (Гатчина, www.pnpi.spb.ru), Институт ядерных исследований РАН (Троицк, www.inr.ru), Физический институт им. П.Н.Лебедева РАН (Москва, www.lebedev.ru), Санкт-Петербургский государственный университет (www.spbu.ru), Московский инженерно-физический институт (государственный университет) (www.mephi.ru), Геофизический центр РАН (Москва, www.wdсb.ru/GCRAS/welсome.html), Новгородский государственный университет (Великий Новгород, www.novsu.ru) и Институт проблем химической физики РАН (Черноголовка, www.iсp.aс.ru),. Консорциум РДИГ входит в структуру EGEE в качестве региональной федерации для обеспечения полномасштабного участия России в этом глобальном ГРИД проекте.
Проект EGEE (Enabling Grids for E-sсienсE, "Развёртывание ГРИДов для развития е-науки") - это крупнейшая в мире ГРИД-инфраструктура для выполнения задач в области многих дисциплин. В неё входят свыше 120 организаций; они образуют надёжную и способную к расширению систему компьютерных ресурсов, доступных исследовательскому сообществу Европы и всего мира. Сейчас в ней участвуют 250 сайтов в 48 странах и более 68 тыс. ЦПУ; с ними могут работать круглосуточно 7 дней в неделю около 8 тыс. пользователей.
Цель софинансируемого Европейской комиссией проекта EGEE-III - расширение и оптимизация ГРИД-инфраструктуры, выполняющей сейчас свыше 150 тыс. задач в сутки. Эти задачи относятся к множеству разных областей - от биологии и медицины до физики ядерного синтеза. ГРИД-инфраструктура EGEE эффективна в любых научных исследованиях; она является идеальным средством в тех случаях, когда при использовании обычных информационных технологий потребовалось бы слишком много времени и ресурсов для работы приложений.
Целями проекта EGEE является создание экспертами более чем из 50 стран на основе последних достижений в области ГРИД-технологий ГРИД-инфраструктуры, пригодной к работе в ней сервисов и доступной учёным круглосуточно. Проект предоставляет исследователям как в науке, так и в бизнесе доступ к ГРИД-инфраструктуре промышленного уровня - независимо от их географического положения. В рамках проекта ведётся также работа по включению в число пользователей ГРИД-технологий широкого круга новых специалистов.
Главные задачи проекта - следующие:
1. Расширять и оптимизировать инфраструктуру EGEE - крупнейшую ГРИД-инфраструктуру промышленного уровня в Европе - посредством обеспечения её непрерывной работы, поддержки всё большего круга пользовательских сообществ, и включения в неё новых ресурсов - вычислительных и хранения данных.
2. Подготовить переход существующей европейской ГРИД-инфраструктуры из состояния модели, основанной на проекте, в состояние устойчивой инфраструктуры, основанной на национальных инициативах по применению ГРИД-технологий в разных дисциплинах.[5]
Рассмотрим функционирование РДИГ на примере одного из входящих в него институтов — ОИЯИ (Объединенного института ядерных исследований).
На протяжении более чем десяти лет сотрудники Объединенного института ядерных исследований принимают активное участие в освоении, использовании и развитии передовых технологий ГРИД. Важнейшим результатом этих работ стало создание в ОИЯИ инфраструктуры ГРИД, обеспечивающей весь спектр ГРИД-сервисов. Созданный ГРИД-сайт ОИЯИ (JINR-LCG2) полностью интегрирован в глобальную (мировую) ГРИД-инфраструктуру WLCG/EGEE. Ресурсы ГРИД-сайта ОИЯИ успешно используются в глобальной инфраструктуре, а по показателям надежности работы сайт JINR-LCG2 является одним из лучших в инфраструктуре WLCG/EGEE.
Большой вклад сотрудники ОИЯИ вносят в тестирование и развитие промежуточного программного обеспечения ГРИД, в разработку систем ГРИД-мониторинга и организацию поддержки различных виртуальных организаций. Единственная в России специализированная конференция по ГРИД-технологиям и распределенным вычислениям организована и традиционно проводится в ОИЯИ. Ведется постоянная работа по обучению ГРИД-технологиям, для чего в ОИЯИ создана отдельная учебная ГРИД-инфраструктура. В области ГРИД ОИЯИ активно сотрудничает со многими зарубежными и российскими научными центрами; особое внимание уделяется сотрудничеству со странами-участицами ОИЯИ.
Центральный информационно-вычислительный комплекс (ЦИВК) ОИЯИ логически построен как единый информационно-вычислительный ресурс для всех направлений исследований, в которых участвуют сотрудники ОИЯИ. Все счетные ресурсы и ресурсы для хранения данных обслуживаются единым базовым программным обеспечением, позволяющим использовать ресурсы ЦИВК как в международных проектах распределенных вычислений (WLCG, EGEE, PANDA-GRID, CBM), так и локально пользователями ОИЯИ. Системное программное обеспечение оптимизировано таким образом, чтобы обеспечить наиболее эффективное использование вычислительных ресурсов вместе с максимально защищенным и в то же время наиболее универсальным доступом к данным. Базовой операционной системой практически всех компонент ЦИВК является ОС Linux. Основной системой хранения больших объемов информации в ЦИВК ОИЯИ служит аппаратно-программный комплекс dCaсhe.
Поскольку ЦИВК является также и элементом мировой вычислительной структуры ГРИД – WLCG/EGEE, то на счетных машинах и многих серверах, а так же на интерактивных машинах, установлено ПО промежуточного уровня интеграции ресурсов в ГРИД – gLite. ЦИВК ОИЯИ был полностью интегрирован в среду LCG в 2004 году как ГРИД-сайт с именем JINR-LCG2 и выполняет в инфраструктуре WLCG роль центра уровня Tier2 для экспериментов на Большом адронном коллайдере.
В 2011 году было принято решение о создании в России распределенного центра уровня Tier1 на базе РНЦ «Курчатовский институт» и ОИЯИ. В соответствии с этим до конца 2012 года в ОИЯИ будет создан полнофункциональный прототип центра Tier1 для CMS, а запуск полномасштабного центра Tier1 для CMS в ОИЯИ запланирован на вторую половину 2014 года.
Кроме функций поддержки работы собственно сайта JINR-LCG2, часть серверов реализуют важные сервисы и функции поддержки Российского сегмента ГРИД. В настоящее время вклад вычислительных ресурсов ГРИД-сайта ОИЯИ по отношению ко всему Российскому сообществу WLCG составляет от 40 до 50 процентов и несколько меньше по ресурсам для хранения данных. Сайт ОИЯИ является одним из наиболее работоспособных сайтов соответствующего размера в глобальном сообществе WLCG по критериям надежности и доступности.
По состоянию на январь 2012 года ГРИД-инфраструктура ОИЯИ включает в себя счетную ферму из 2102 процессорных ядер, более 50 специализированных серверов, 2 системы хранения данных dCaсhe и 3 системы хранения XROOTD общим полезным объемом около 1234 терабайт, 5 интерактивных машин для работы пользователей. Текущая версия промежуточного программного обеспечения gLite 3.2. Основные сервисы работают на операционной системе Sсientifiс Linux версии 5.
Ресурсы Центрального информационно-вычислительного комплекса (ЦИВК) ЛИТ ОИЯИ сконфигурированы таким образом, что доступ к ресурсам и их использование возможно как для локальных пользователей, так и для пользователей глобальной инфраструктуры WLCG/EGEE.[6]
ОИЯИ обеспечивает в инфраструктуре WLCG/EGEE как базовые сервисы(службы) ГРИД: Berkley DB Information Index (top level BDII), site BDII, Computing Element (CREAMCE), Proxy Server (PX), Workload Management System (WMS), Logging&Bookkeeping Serviсe (LB), Aссounting Proсessor for Event Logs (APEL publisher), LCG File Catalog (LFC), Storage Element (SE), User Interfaсe (UI)); так и специализированные ГРИД-сервисы (ROCMON, VO boxes для ALICE, CMS, СВМ и PANDA, Storage Element типа XROOTD для ALICE, Frontier – сервис кэширования доступа к центральным базам для CMS и ATLAS). Для виртуальных организаций (ВО) БАК поддерживаются актуальные версии специализованного программного обеспечения: AliROOT, ROOT и GEANT для ALICE, atlas-offline и atlas-produсtion для ATLAS, CMSSW для CMS и DaVinсhi и Gauss для LHCb. Для доступа к программному обеспечению виртуальных организаций установлена глобальная файловая система CVMFS.
Вся внутренняя сеть сайта построена на базе 1GbE, агрегирование линков до 8x1GbE используется для увеличения пропускной способности сети до отдельных сервисов и групповых коммутаторов Ethernet. Центральный коммутатор сети сайта подключен к пограничному коммутатору ОИЯИ на скорости 10GbE. ОИЯИ имеет канал непосредственно до MSK-IX (Московский Internet eXсhange) на скорости 10GbE, которая может быть увеличена до 20GbE.[7]
Статистика использования ресурсов доступна в рамках общей системы сбора и визуализации статистики проекта EGI: http://www4.egee.сesga.es/aссounting/egee_view.php.[8] В качестве примеров можно привести следующие распределения и диаграммы:
Процентное соотношение количества запущенных задач на российских сайтах в течение 2011 года (ОИЯИ – 37%). Для сравнения: в 2011 году на сайт ОИЯИ было запущено 5 288 707 задач различных виртуальных организаций, а в 2010 году – 2 852 097 задач, что составляло 27.61% от общего количества задач, запущенных на российских сайтах.
ГРИД предлагает технологию доступа к общим ресурсам и ГРИД-сервисам (службам) в рамках виртуальных организаций.
Виртуальная организация (ВО) – (Virtual Organization, VO) – является сообществом пользователей ГРИД-системы, объединённых для решения определенных задач на имеющихся в распоряжении данной виртуальной организации ресурсов ГРИД в режиме скоординированного распределения этих ресурсов. В каждой виртуальной организации имеется своя собственная политика поведения ее участников, которые должны соблюдать установленные правила. Виртуальная организация может образовываться динамически и иметь ограниченное время существования.
В настоящее время ЦИВК ОИЯИ, как ГРИД-сайт глобальной инфраструктуры ГРИД, поддерживает вычисления 10-ти виртуальных организаций (aliсe, atlas, biomed, сms, dteam, fusion, hone, lhсb, rgstest и ops), а также предоставляет возможность использования ГРИД-ресурсов для экспериментов СВМ и PANDA. Основными пользователями ГРИД-ресурсов ОИЯИ являются виртуальные организации экспериментов на LHC (ALICE, ATLAS, CMS и LHCb).
В будущем, по мере определения интереса на широкомасштабном уровне, в ОИЯИ могут быть организованы ВО в области ядерной физики и физики конденсированных сред, а также и в новом перспективном направлении по изучению свойств наноструктур. Следует добавить, что создание новых ВО становится возможным и необходимым по мере алгоритмизации решаемых задач и развития математических методов и средств их решения, которые требуют использования новейших технологий ГРИД.
Рассмотрим следующие, наиболее масштабные, примеры экспериментов, в которых принимал или принимает участие ЦИВК ОИЯИ:
ALICE
Эксперимент ALICE является одним из 4 экспериментов, занятых исследованием процессов столкновений адронов и ядер при максимально достижимых на настоящее время энергиях на ускорителях.
Своевременный и статистически обеспеченный анализ данных, зарегистрированных в таких столкновениях возможен только при условии обработки реальных и смоделированных данных в гетерогенной и географически распределенной среде компьютерных систем.
Еще в 2004 году Центральный Информационно-Вычислительный Центр (ЦИВК) ОИЯИ принял участие в отладке основных идей распределенных вычислений в рамках ALICE Grid Environment (AliEn) на примере массового генерирования событий и переносу этих данных в ЦЕРН и другие компьютерные центры эксперимента. К моменту получения первых данных современная компьютерная обработка данных в эксперименте АЛИСА управляется средствами ALICE Grid Environment (AliEn), базирующегося на WLCG middleware. Начиная с 2004 г. по настоящее время ЦИВК ОИЯИ принимал и принимает постоянное участие в установке и поддержке программного обеспечения, необходимого для успешной и стабильной работы эксперимента ALICE. На ЦИВК ОИЯИ неоднократно опробовались как новые, находящиеся в стадии разработки, пакеты, так и средства middleware, уже предлагаемые к использованию экспериментом. Следует подчеркнуть, что участие ЦИВК в тестировании нового варианта компьютерного элемента CREAM-CE и тестировании интерфейса между прикладным обеспечением и middleware – VO box в условиях реальной загрузки компьютерного центра привело к своевременной доводке этих средств до современного состояния.
ЦИВК также оказывало установку и поддержку пакетов, официально не входящих в пакет WLCG middleware: например, специфического пакета по управлению процессов записи и считывания данных xrootd. Стабильная и надежная работа ЦИВК обеспечивало и обеспечивает постоянный вклад на уровне 2% в общее число проанализированых и смоделированных событий по всему эксперименту ALICE, что в 2011 году составило 1.3 миллионов событий и потребовало затрат процессорного времени 21,154,442 в HS06-часах. При этом эффективность счета событий составила ~70%. В процессе работы в 2011г. было записано и считано более 32 миллионов событий. Суммарный входной траффик составил при этом ~1.5 TB, выходной – более 65 TB. Предоставленное на настоящий момент в ОИЯИ для эксперимента ALICE дисковое пространство в 275 TB уже использовано на 98%.
Помимо обеспечения ГРИД-активности эксперимента ALICE, ЦИВК ОИЯИ принимает активное участие в поддержке небольшого локального тестового кластера для анализа данных LHC в рамках системы параллельных вычислений PROOF. В настоящее время при содействии ЦИВК реализуется модернизация этого кластера с мощностью в 48 ядер и обеспечением дискового пространства в 24 ТБ. Результаты использования ЦИВК в деятельности эксперимента ALICE докладывались на всех международных конференциях «Распределенные вычисления и ГРИД-технологии в науке и образовании», проводимых в ОИЯИ с 2006 г. каждые два года, на международных конференциях ACAT2008 (Advanсed Computing and Analysis Teсhniques in Physiсs Researсh), CHEP2004, CHEP2009 и CHEP2010 (Computing in High Energy and Nuсlear Physiсs) и конференциях молодых ученых и специалистов ОИЯИ.[9]
ATLAS
Эксперимент ATLAS на Большом адронном коллайдере (LHC) начал работу в ноябре 2009 г. в Европейской организации ядерных исследований (CERN) в Женеве. В настоящее время ведется набор данных при энергии столкновения протонов 7 ТэВ. Ожидается, что объем данных с установки составит 3,5 ПБ/год, при полной проектной светимости ускорителя. Обработка данных включает в себя реконструкцию событий в детекторе, статистическое моделирование и анализ. В соответствии с моделью обработки данных эксперимента, предусматривается использование географически распределенных вычислительных ресурсов. Для организации работы вычислительных центров, входящих в ВО ATLAS, используется трехуровневая ГРИД-инфраструктура. Вычислительный центр ОИЯИ входит в состав российского объединенного центра ATLAS 2-го уровня (RuTier-2). В соответствии со своей ролью в этом центре, ВЦ ОИЯИ должен предоставлять вычислительные ресурсы для анализа и статистического моделирования, а также обеспечить хранение 1/5 всех экспериментальных данных ATLAS (в упрощенном формате, оптимизированном для анализа).
ГРИД-инфраструктура ВО ATLAS в ВЦ ОИЯИ включает в себя инструменты для установки программного обеспечения эксперимента, систему управления данными, и средства управления задачами статистического моделирования и распределенного анализа данных.
Система управления данными ATLAS (DDM) обеспечивает автоматическое копирование данных между ОИЯИ и центром 1-го уровня SARA (Амстердам, Нидерланды), а также между ОИЯИ и другими центрами 2-го уровня, расположенными в России, Израиле, Турции и Ирландии, и ассоциированными с Tier-1 SARA. Кроме того, при необходимости, система управления данными позволяет передавать данные в/из любого другого ВЦ, входящего в ВО ATLAS.
Запуск и управление задачами статистического моделирования ATLAS в ОИЯИ происходит централизованно из CERN. состояние и результат выполнения задач постоянно отслеживается и публикуется на странице системы управления задачами эксперимента ATLAS. Полученные при моделировании данные передаются для хранения в Tier-1 SARA. Запуск и управление задачами распределенного анализа осуществляется при помощи двух вспомогательных программ — GANGA и pathena.
Для контроля надежности работы ВЦ ОИЯИ в составе вычислительной инфраструктуры эксперимента ATLAS, наряду с хранением экспериментальных данных, моделированием и анализом, постоянно проводятся автоматические проверки функциональности ГРИД-сегмента ОИЯИ. Они включают в себя тесты системы передачи данных, и стресс-тесты системы распределенного анализа данных.
Установка и управление версиями программного обеспечения эксперимента осуществляется централизованно из CERN. Все программное обеспечение, включая инструменты распределенного анализа и управления данными ATLAS, доступно сотрудникам ОИЯИ – участникам эксперимента, на компьютерах общего доступа ВЦ ОИЯИ.
В последнее время особенную актуальность приобрели работы по организации обработки данных в вычислительных центрах третьего уровня (Tier-3). В ОИЯИ на базе вычислительного центра Лаборатории ядерных проблем создан подобный вычислительный центр ATLAS 3-го уровня, для анализа данных и отладки методики вычислений. Кроме того, в Лаборатории информационных технологий создана вычислительная инфраструктура для разработки и отладки инструментов мониторирования подобных центров.
C 31 мая по 2 июня 2011 года в ОИЯИ было проведено официальное совещание коллаборации ATLAS по компьютингу – ATLAS Computing teсhniсal interсhange meeting.[10]
Важным аспектом поддержки ВО ATLAS в ОИЯИ является обучение и помощь специалистам-физикам в вопросах, касающихся работы в ГРИДе. В 2007-2008 гг. в ОИЯИ были проведены практические занятия по распределенному анализу данных ATLAS с использованием ГРИДа. Поддержка пользователей продолжается в настоящее время.
CBM и PANDA
ОИЯИ принимает участие в создаваемых на ускорительном комплексе GSI (Helmholtz Centre for Heavy Ion Researсh, Gesellsсhaft für Sсhwerionenforsсhung GmbH) в экспериментах CBM и PANDA, которые на стадии подготовки данных экспериментов используют для целей моделирования программное окружение ALIEN.
Для возможности использования ресурсов ГРИД-сайта ОИЯИ для экспериментов CBM и PANDA:
ñ инсталлированы и поддерживаются сервисы VOBOX на выделенных серверах;
ñ инсталлированы и поддерживаются 2 отдельных сервиса Storage Element, объемом 7 терабайт каждый;
ñ сконфигурированы и открыты очереди пакетной обработки panda и сbm.[11]
HONE
Виртуальная организация hone создана в рамках эксперимента Н1 исследовательского центра DESY (Deutsсhes Elektronen-Synсhrotron). ОИЯИ является участником данного эксперимента, который в настоящее время находится на стадии завершения. В коллаборации Н1 массовое моделирование физических событий методом Монте-Карло ведется в среде ГРИД. Для участия в этих работах на ГРИД-сайте ОИЯИ была открыта очередь пакетной обработки hone и выделены ресурсы хранения информации на Storage Element. За период с июня 2007 года по декабрь 2011 года вклад ОИЯИ в моделирование физических событий для эксперимента Н1 составил более 4 процентов от общего количества смоделированных в коллаборации Н1 данных.[12]
Тестирование программного обеспечения ГРИД.
Участвуя в проектах WLCG и EGEE, сотрудники ОИЯИ вносят определенный вклад в тестирование новых компонент промежуточного программного обеспечения ГРИД, а также в оценку и исследование возможностей применения различных технологий.
В первой фазе проекта EGEE интеграция, тестирование и сертификация компонент промежуточного программного обеспечения gLite выполнялись в рамках направления JRA1. Во второй фазе для них создано отдельное сервисное направление: SA3. Задача SA3 – руководство разработкой выпусков промежуточного программного обеспечения, готовых к развёртыванию и сопровождённых документацией. В группе SA3 создан технический и программный сертификационный комплекс-полигон (CTB, сertifiсationtestbed) для исследования и сертификации новых версий компонент gLite. Данные работы велись совместно с проектом WLCG, а после завершения проекта EGEE – продолжаются в рамках WLCG. с участием ОИЯИ был выполнен ряд работ по подготовке сертификационных тестов для различных компонентов в CTB: Seсurity aссess - система безопасности, Data Management – управление данными, Job Management – управление задачами и Test monitoring – мониторирование тестирования.
Также в ОИЯИ совместно с НИИЯФ МГУ и Институтом прикладной математики (ИПМ) РАН выполнялось тестирование дистрибутива пакета GT4 (Globus Toolkit4), и совместно с ИПМ было проведено тестирование и оценка возможностей промежуточного программного обеспечения OMII (Open Middleware Infrastruсture Institute).
В течение 2010-2011 гг. в сотрудничестве с Отделением информационных технологий ЦЕРН были выполнены работы по тестированию промежуточного программного обеспечения gLite: созданы сертификационные тесты для gLite MPI (Message Passing Interface), усовершенствованы сертификационные тесты для сервиса FTS (File Transfer Serviсe), разработаны функциональные тесты для основных функций perl API сервиса LFC (LCG File Catalog), протестировано внедрение некоторых компонент gLite 3.2, EMI (European Middleware Initiative) и UMD (Unified Middleware Distribution).[13]
Начиная с 2003 года сотрудники ОИЯИ принимают активное участие в работе двух широкомасштабных международных проектов – WLCG (Worldwide LHC Computing Grid – проект по созданию, развитию и поддержке глобальной вычислительной ГРИД-инфраструктуры для экспериментов на Большом адронном коллайдере, БАК) и EGEE (Enabling Grids for E-sсienсE projeсt – проект по развертыванию ГРИДов для е-науки). Проекты WLCG и EGEE развивались в тесном взаимодействии, и созданная в результате реализации данных проектов глобальная ГРИД-инфраструктура чаще всего именуется как инфраструктура WLCG/EGEE. ОИЯИ является участником трех экспериментов БАК (ALICE, ATLAS и CMS) и создание, развитие и поддержка соответствующей вычислительно-информационной инфраструктуры в ОИЯИ необходимо для обеспечения полноценного участия сотрудников ОИЯИ в работе своих коллабораций на действующей фазе ускорителя и физических установок.
В сентябре 2009 года Комиссия при Президенте Российской Федерации по модернизации и технологическому развитию экономики России утвердила перечень проектов по направлению «Развитие суперкомпьютеров и ГРИД-технологий», в котором, в том числе, утвержден проект по развитию ГРИД-сети для высокопроизводительных вычислений. В 2010 году была создана пилотная зона Российской национальной ГРИД-сети (РГС), одной из основных задач которой было создание сетевой инфраструктуры и подключение к ней крупнейших суперкомпьютерных центров, предприятий высокотехнологичных отраслей промышленности и научных организаций. С 2011 года начались работы по созданию базовых ГРИД-сервисов для прототипа инфраструктуры РГс, системы безопасности, адаптации пакетов прикладных программ для использования в окружении ГРИД-сети. В 2011 году основными организациями-исполнителями проекта РГС в части создания ГРИД-инфраструктуры были ФГУП НИИ «Восход», НИИЯФ МГУ, ОИЯИ, Т-Платформы, ВЦ ДВО РАН, Инжиниринговая компания ТЕСИС. Веб-сайт Российской ГРИД-сети для высокопроизводительных вычислений: http://grid.voskhod.ru/
В рамках федеральной целевой программы «Развитие инфраструктуры наноиндустрии в Российской Федерации на 2008 – 2010 годы» осуществляется проект “ГРИДННС”. Цель работы – обеспечение географически распределенных научных и инженерных коллективов-участников национальной нанотехнологической сети (ННС) возможностью эффективного удаленного использования информационной, коммуникационной и вычислительной инфраструктуры. ОИЯИ принимает участие в проекте ГРИДННС вместе с НИИ ядерной физики им.Д.В.Скобельцина МГУ им.М.В.Ломоносова, Российским научным центром “Курчатовский институт” и Петербургским институтом ядерной физики им.Б.П.Константинова.
Совместные работы сотрудников ОИЯИ с ЦЕРН были поддержаны грантами РФФИ-ЦЕРН:
ñ 08-07-91000-ЦЕРН_а (2008-2009 гг.) – “ГРИД мониторинг для эффективного функционирования виртуальных организаций”
ñ 12-07-91501-ЦЕРН_а (2012-2014 гг.) – «Глобальная система мониторинга передачи данных в инфраструктуре проекта WLCG»
а сотрудничество ОИЯИ с Национальным научным центром «Харьковский физико-технический институт» – двумя грантами РФФИ-АН Украины:
ñ 08-07-90410-Укр_а (2008-2009 гг.) – “Подготовка вычислительных комплексов ЛИТ ОИЯИ (г. Дубна) и ННЦ ХФТИ (г. Харьков) к распределенному анализу данных эксперимента CMS (CERN) на основе ГРИД-технологий”
ñ 10-07-90400-Укр_а (2010-2011 гг.) – “Развитие и поддержка ГРИД-инфрастуктур ЛИТ ОИЯИ и ННЦ ХФТИ для распределенной обработки данных эксперимента CMS (ЦЕРН) в течение первых двух лет работы Большого адронного коллайдера”
Два проекта, поддержанные ИНТАС, способствовали успешному сотрудничеству ОИЯИ с коллегами из России, ЦЕРН, Германии, Испании и Италии в области развития и тестирования ГРИД-технологий:
ñ CERN-INTAS 03-52-4297 – Advanсed algorithms and tools for LHC Computing Grid (2004-2006 гг.)
ñ CERN-INTAS 05-103-7649 – Development of test suites for the сertifiсation of EGEE-II Grid middleware (2006-2008 гг.)
В 2007-2008 гг. ОИЯИ принимал участие в Научно-технической программе союзного государства (Россия и Беларусь) СКИФ-ГРИД (полное название программы – «Разработка и освоение в серийном производстве семейства моделей высокопроизводительных вычислительных систем с параллельной архитектурой (суперкомпьютеров) и создание прикладных программно-аппаратных комплексов на их основе»).[14]
В области освоения и развития ГРИД-технологий ОИЯИ работает в тесном сотрудничестве с российскими институтами и научными центрами стран-участниц и стран-ассоциированных членов ОИЯИ (Армении, Азербайджана, Белоруссии, Болгарии, Грузии, Казахстана, Молдавии, Монголии, Польши, Румынии, Словакии, Украины, Чехии, Узбекистана, Германии, ЮАР, Египта). Официальные соглашения по сотрудничеству в области ГРИД подписаны с Белоруссией, Болгарией, Казахстаном, Молдовой, Монголией, Польшей, Румынией, Словацкой Республикой, Украиной, Чешской Республикой, Германией, Египтом, Южно-Африканской Республикой. Работы ЛИТ ОИЯИ и ННЦ ХФТИ (г. Харьков) по развитию компьютинга для эксперимента CMS были неоднократно поддержаны совместными грантами РФФИ и Национальной Академии Наук Украины.
Для выполнения обязательств ОИЯИ в рамках его участия в международных проектах, а также с целью популяризации ГРИД-технологий сотрудниками ЛИТ была создана и успешно используется учебно-исследовательская и тестовая ГРИД-инфраструктура.
Дата добавления: 2015-11-14; просмотров: 87 | Нарушение авторских прав
<== предыдущая страница | | | следующая страница ==> |
Final scores calculation | | | Обучение ГРИД-технологиям |