Распределенный файловый сервер. Распределенная файловая система GFS (Google File System)

27.03.2019

Градиент. Несложные правила вязания

красивого полотна с плавным переходом цветов

В статье использованы фотографии из Интернета: источник «поиск Гугл»

Градиент – слово от лат. gradiens , обозначает «шагающий, растущий» или направление наибольшего возрастания определенной величины, в нашем случае – цвета вязаного полотна. Проще говоря, градиентом называют плавный переход от одного цвета к другому, причем самих цветов и количество переходов может быть любым. Например, перейти от черного к белому можно в два шага, а можно и в 5 или 10 шагов, подбирая между начальным (черным) и конечным (белым) оттенки от темно-серого до серебристого и белоснежного.

Также и с любыми другими цветами и оттенками

В вязании разноцветное полотно используется в самых разных моделях и фасонах, как для детей, так и для взрослых.



В общем, море фантазии и возможностей!!!

Можно связать вещь полосками разных цветов, можно предусмотреть переход оттенков в процессе вывязывания узора, а можно подчеркнуть «изюминку» вещи только через перелив красок в обычной лицевой (или платочной) глади.

Для ПЛАВНОГО перехода от одного цвета в другой используется несложная техника сочетания нитей — меланж. Википедия определяет Меланж как «способ совмещения и переплетения разноцветных ниток для вязания». И мы для выполнения полотна градиентом должны самостоятельно меланжировать выбранные цвета пряжи: все очень просто, но эффектно и красиво!

Часто в готовом виде все равно заметны «линии переходов», очень нечеткие и расплывчатые, но визуально видимые.


Если изделие вяжется с узором, например, косами или любым другим, то «видимость» полосок расплывается, переход становится менее заметным

Вот более яркий пример для сравнения лицевой глади и рисунка

Ни в коем случае нельзя сказать, что это некрасиво – это просто факт)) все изделия в такой технике смотрятся очень классно и эффектно!

НО! Можно добиться и почти идеально плавного перелива цвета, причем в той же технике вязания!!!

Вот, например, смотрите


На самом деле все очень просто – такого эффекта можно достичь двумя способами:

  1. чем больше используется полутонов между основными цветами, тем красивее результат и менее заметны переходы, т.е. используя три цвета, очень сложно добиться того же итога, что и 9-тью цветами пряжи.

Как пример, имея 3 мотка *черный-серый-белый* перелив будет именно заметными полосками, а при наличии 9 цветов нитей *черный/маренго/темно-серый/серый/светло-серый/темно-серебристый/серебристый/грязно-белый/белый/белоснежный*, это будет значительно более плавный градиент.

  1. вязание бОльшим количеством слоев нитей, постепенно заменяя каждую из которых на новый оттенок, будет достигаться именно плавность перехода цвета.

Картинки выше – это второй способ одной и той же техники вязания.

Есть еще вариант – другая техника, например, жаккард или рисунок, где разные цвета можно вводить точечно, в каждом следующем ряду наращивая объем нового оттенка и добиться, следовательно, постепенной, очень «медленной» смены цвета.

Мы рассматриваем способ вязания градиента, где присутствует меланжирование нитей!

НЕСКОЛЬКО ПРАВИЛ для формирования «нужных» цветов при вязании градиента — меланжирования.

1.Толщина пряжи

В процессе вязания наши нити будут совмещаться в разных сочетаниях, т.е. рабочая нить будет ВСЕГДА состоять из нескольких нитей – можно взять всего 2 основных цвета пряжи, НО при этом от количества сложений будет зависеть и эффектность градиента. Т.е. при вязании в три нити переход будет обязательно более заметен, чем при вязании этой же пряжей в 6 или более сложений.

Поэтому первое правило классного результата — чем больше количество сложений нитей, тем более плавным будет переход оттенков в готовом изделии.

От этого зависит изначальный выбор пряжи — ориентируйтесь на «итоговую толщину» нити (= рабочая нить), которой будет вязаться полотно в несколько сложений: если в мотке 100 г. и длина нити составляет 400-500 м, то в три сложения толщина рабочей нити будет достаточно объемной, переходы цвета более заметны. Для такого же трехслойного варианта из нитей, каждая из которых длиной в 700-900 м в 100 г – уже толщина рабочей нити составит более тонкое полотно. Ну а при сложении в 6-8 нитей для пряжи в 1300-1500 м и более можно надеяться на практически «идеальный» результат градиента.

Ваш выбор пряжи первым делом должен предусматривать этот момент!

Но, повторюсь, это не значит, что вязание в 3 сложения некрасиво или неэффектно – все зависит от желаемой модели и вашего выбора!

Есть три цвета хлопковой пряжи, из которых должно быть связано градиентное полотно летней кофточки.

Пряжа 50% хлопок/50% вискоза, длина 425 м х 100 г. – нитью в 3 сложения я буду вязать спицами № 3,5 (возможно 4,0 в зависимости от индивидуальной плотности вязания).

Всего 2 основных цвета пряжи – Семеновская «Лидия», 100% шерсть, длина 1613 м х 100 г., цвета «Темно-синий» и «Айсберг» (бирюзовый). Будет вязаться шапочка в 8 (!) сложений


Обратите внимание, что в первом примере «полоски» от переходов цветов заметны, особенно на участке смены меланжированных и основных участков, в том время как при переходе от не очень контрастирующих оттенков «граница» более расплывчата. Т.е. при использовании бОльшего количества оттенков перелив был бы более плавным даже при малом количестве сложений рабочей нити.

Во 2-ом примере, на полотне шапочки, такой видимой «границы» цвета нет даже для резких цветовых тонов БЕЗ использования полутонов.

2. Как меланжировать нити

Т.е. как формировать «переходные» цвета нитей.

Основное правило меланжирования:

есть участки основных цветов и есть т.н. меланжированные участки вязаного полотна. Все участки вяжутся одинаковым количеством сложений (= рабочая нить): отрезки основных цветов — это сложение нитей только основных цветов, а меланжированные участки – сочетание нитей разных цветов. Каждый следующий переход осуществляется за счет замены одной из нитей в составе рабочей нити на нить другого цвета.

Например, при сложении в 5 нитей, первый переход будет осуществлен заменой одной из пяти нитей нитью другого цвета = 4 нити одного цвета + 1 нить другого цвета.

Процесс вязания выполняется так: провязав определенный вертикальный участок, меняем одну из нитей в составе рабочей нити на другую. Вяжем следующий вертикальный участок и меняем еще одну нить в составе рабочей на такую же, какой была первая замена. И так далее – постепенно заменяются все нити в составе рабочей на другой цвет.

2.1. Вяжем темной пряжей в 3 нити одинакового (сиреневого) цвета на нужную высоту*

*Как определить отрезок вязания в высоту для равномерного распределения цветов по длине изделия – ниже по тексту

Это первый участок основного цвета.

2.2. Первый переход на более светлую пряжу (розовую) = первый меланжированный участок. Для этого мы заменяем одну из трех нитей нашей рабочей нити на розовую нить – получаем тройное сложение из двух сиреневых и одной розовой нити. Так более светлая нить будет постепенно введена в полотно.

2.3. Связав этот отрезок на нужную высоту, заменяем одну нить из двух оставшихся сиреневых на розовую – получаем тройное сложение из двух розовых нитей и одной сиреневой.

Получаем полотно такого вида

2.5. Аналогичным способом будет выполняться и переход от розового цвета к белому:

— 2 розовые нити + 1 белая

— 1 розовая нить + 2 белые

— 3 белые нити

Таким образом, плавный перелив от начального темного цвета к конечному светлому завершен.

Ничего сложного и заумного)))

Это пример для вязания тремя цветами. Аналогичным способом будем меланжировать и 4 цвета (условно А, В, С, D), и переход будет более плавным, ведь отрезки будут более короткими и распределятся следующим образом:

— 4 нити А

— 3 нити А + 1 нить В

— 2 нити А + 2 нити В

— 1 нить А + 3 нити В

— 4 нити В

Соответственно и следующие отрезки переходов

Теперь становится понятно, что, чем больше нитей в составе рабочей, тем более плавным будет переход, ведь замена происходит постепенно и, следовательно, введение нового оттенка «менее» заметно. Поэтому даже вязание 2-мя основными цветами, но в бОльшем количестве сложений рабочей нити дает самый эффектный итоговый результат градиента – пример 2))

Я думаю, принцип меланжирования понятен независимо от количества основных цветов и количества переходов.

3. Как определить высоту отрезка перехода (вертикального участка полотна)

Если ваше изделие будет равномерно переходить от одного цвета к другому, т.е. все оттенки будут одинаковой высоты, то запланированную длину всего изделия (измеряем по центру изделия) от верхнего края (например, горловины кофточки или донышка шапочки) до нижнего края делим на количество основных цветов – БЕЗ учета меланжированных участков.

В вышеприведенном примере № 1 это 3 части: сиреневая, розовая и белая. Как пример, возьмем общую высоту кофточки 72 см.

72: 3 = 24 см. Т.е. полный переход от одного основного цвета к другому должен составлять 24 см. НО! в каждом таком переходе используется 3 подхода со сменой нитей = меланжированные участки (3 нити одного цвета, 2 одного + 1 второго цвета, 1 одного + 2 второго цвета), значит каждый отрезок основного цвета делим еще на 3 части = каждый вертикальный участок вязания, включая меланжированные, составляет 8 см. Ну а количество рядов – это уже в зависимости от индивидуальной плотности вязания))

Учитывая фасон, модель и количество желаемых переходов, вы уже можете изменить на свой выбор, какой из переходов должен иметь бОльшую высоту, а какие отрезки будут меньше или одинаковые. В частности, это очень важно, если количество пряжи у вас разное: какого-то цвета 4 мотка, а других только по 1-му – соответственно один из переходов будет более «затяжной», а другие – «короткие». Или просто по желанию один цвет (или один меланжированный участок) в вашей модели должен составлять 2/3 всей длины по задумке))

Для вязания разновысоких участков цветов используйте такую схему:

— определите желаемую высоту для каждого отрезка основных нитей

Пример № 2: для вязания шапочки рабочей нитью в 8 сложений из пряжи двух цветов: общая планируемая высота изделия от нижнего края до центра донышка будет составлять 23 см. Высота каждого участка основных цветов – по 7 см, соответственно «середина», т.е. ОБЩАЯ высота всех меланжированных участков для перехода от одного основного ко второму основному цвету составит 9 см.

— общий меланжированный участок для всех цветов распределите на количество переходов

В нашем примере это так:

7 нитей А + 1 нить Б

Т.е. всего будет выполнено 7 переходов на этом участке. Как рассчитывалось ранее, общая высота должна быть 9 см, соответственно каждый отдельный меланжированный участок составит ок. 1,5 см.

Все. Расчеты сделаны!

4. Плавный переход от одного участка к другому меланжированному или однотонному отрезку, если малое количество сложений в рабочей нити и достаточно контрастные оттенки пряжи.

Это тоже довольно тонкий момент вязания, ведь если количество основных цветов небольшое, например, наши 3 цвета в 1-ом примере, и колор достаточно контрастный, то, как и говорилось выше, все равно есть достаточно «четкая» линия разграничения разных оттенков.

Используйте правило постепенного введения, т.е. можно не вязать сразу весь ряд с заменой одной нити, а вводить новый оттенок за счет частичного вязания, например, провязав укороченными рядами небольшой отрезок, переход уже не будет четко «горизонтальным».

Или можно использовать технику жаккарда, буквально провязывая по 1-2 петли через 5-6 см в ряду, в следующем соответственно увеличивая участки нового цвета.

Еще один вариант – провязать новой рабочей нитью небольшой участок ряда, далее провязать также небольшой участок предыдущего оттенка, и снова прочередовать в этом же ряду «новую» и «текущую» рабочие нити, следующий ряд полностью провязать предыдущим оттенком, следующий – «новым» оттенком: так «слияние» будет не в линию, а эпизодами.

В нашем 1-ом примере особенно заметно «разграничение» участков при введении белой нити. Но «заморачиваться» с жаккардом или укороченными рядами не хочется)), есть 3 контрастных цвета и только 3 сложения рабочей нити, как и было запланировано.

При вязании я использовала как частичные отрезки вязания разными рабочими нитями (фото выше), так и такой способ: первый ряд перехода вязать в режиме чередования *2 п. предыдущего цвета (неважно меланжированный это ряд или основной) и 2 п. «нового» цвета*.

При переходе на основной участок от *1розовая + 2белые* к *3 белые нити* я вязала так: *2 п. текущего меланжированного цвета, следующие 2 п. белые* = весь ряд в шахматном порядке, и разные петельки смотрятся одинаково «пестро» в общем полотне.


Следующий ряд провязан «новым» цветом — белым. Но, конечно, можно еще увеличить «высоту» введения «нового» цвета, чтобы получить более плавный перелив!

На изнанке изделия, если вяжете по 2 петли разными раб.нитями, образуются маленькие протяжки, как при вязании жаккардовых узоров – вы можете не обращать на них внимания, ведь они короткие, но можете использовать для их «ликвидации» правила вязания жаккардов, когда протяжки «ввязываются» в текущий ряд.

Общий вид

Пример 2. Здесь во всех переходах просто выполнялась замена 1-ой нити без каких-либо дополнительных способов провязывания

Вот и все правила для вязания градиента. Несложные и достаточно эффектные для получения красивого результата в готовом изделии – вяжите разнообразные и очень аккуратные плавные цветовые переливы! Надеюсь, что как результат вашего труда, так и сам процесс вязания будет доставлять только одно удовольствие!

Управление дисками и файловыми ресурсами. [Занятие 12]
Развертывание и администрирование сети с выделенным сервером на базе Windows Server 2003
vsit, Wednesday 25 October 2006 - 09:54:06

Занятие 12. Управление дисками и файловыми ресурсами.

Все вопросы связанные с администрированием дисковых и файловых ресурсов были подробно рассмотрены в разделе, посвященном Windows XP Professional (Курс "Системный администратор компьютерной сети" ). Управление этими ресурсами в семействе Windows Server 2003 осуществляется аналогично и в данном разделе рассматриваться не будет.

В этом разделе мы рассмотрим дополнительные возможности файловой системы, применяемые на серверах, и реализованные в операционной системе Windows Server 2003, предназначенные для работы с устройствами хранения информации. К таковым относятся: распределенная файловая система (Distributed file system, DFS), теневые копии дисков (Shadow Copies), технологии сжатия файлов.

С помощью Распределенной файловой системы (DFS) системный администратор может упростить для пользователей доступ к файлам, физически распределенным по сети, и управление ими. Система DFS дает возможность предоставить пользователям файлы, находящиеся на разных серверах, так как если бы они находились в едином месте. Для доступа к таким файлам пользователям не потребуется указывать их действительное физическое положение.

Например, если рабочие материалы находятся на разных серверах домена, можно использовать DFS, чтобы для пользователей все эти материалы располагались на одном сервере. При этом пользователям не придется обращаться к различным сетевым ресурсам, чтобы найти требуемые данные.

Основания для использования DFS

  • Предполагается добавление файловых серверов или изменение расположения файлов.
  • Пользователи обращаются к целевым папкам с разных узлов.
  • Большинству пользователей необходим доступ к нескольким целевым папкам.
  • Распределение целевых папок позволяет сделать загрузку сервера более эффективной.
  • Пользователям требуется непрерывный доступ к целевым папкам.
  • В организации есть веб-узлы для внутреннего и внешнего использования.

Типы DFS

Распределенная файловая система может быть реализована двумя путями:

  • распределенная файловая система с изолированным корнем
  • доменная распределенная файловая система.

Доступ к целевым папкам DFS с других компьютеров

Наряду с серверным компонентом DFS семейства Windows Server 2003 существует также клиентский компонент DFS. Клиент DFS выполняет кэширование обращений к корню DFS или к ссылке DFS в течение времени, заданного администратором и может работать с различными системами Windows.

Преимущества.

Распределенная файловая система DFS обладает рядом преимуществ позволяющих обеспечивать высокую отказоустойчивость и сбалансированную нагрузку.

Простой доступ к файлам

Распределенная файловая система упрощает доступ к файлам. Пользователи используют единый сетевой ресурс для доступа к файлам, даже если эти файлы физически находятся на разных серверах. Даже если изменится физическое расположение целевой папки, это не повлияет на доступ пользователей к ней. Они смогут обращаться к папке как раньше, поскольку ее видимое расположение не изменится.

Пользователям не требуется подключать несколько дисков для доступа к своим файлам. Кроме того, задачи по обслуживанию сервера, обновлению программ и другие, которые обычно требуют отключения сервера, могут выполняться без отключения пользователей от ресурсов. Это особенно полезно для веб-серверов. Выбрав корневой каталог веб-узла в качестве корня DFS, можно перемещать ресурсы в рамках распределенной файловой системы, не нарушая ссылки HTML.

Доступность

Доменные DFS обеспечивают пользователям доступ к файлам двумя способами:

  • Операционная система Windows Server 2003 автоматически публикует топологию DFS в Active Directory. Благодаря этому пространство имен DFS всегда видимо для пользователей всех серверов в домене.
  • Администратор может реплицировать корень DFS и целевые папки. Репликация означает дублирование корней и целевых папок DFS на нескольких серверах домена. При этом пользователи всегда могут получить доступ к своим файлам, даже если один из физических серверов, на котором эти файлы находятся, становится недоступным.

Корень DFS может поддерживать несколько целевых папок DFS, которые физически распределены по сети. Например, это полезно, если есть файл, который активно используется пользователями. Пользователи будут обращаться к этому файлу не на одном сервере, сильно загружая его, а к файлу, распределенному системой DFS по разным серверам. Однако для пользователей этот файл будет виден в едином месте в сети.

Безопасность файлов и папок

Поскольку общие ресурсы, управляемые DFS, используют стандартные разрешения NTFS и разрешения общего доступа к файлам, можно использовать существующие группы безопасности и учетные записи пользователей, чтобы гарантировать, что только авторизованные пользователи имеют доступ к важным данным.

Структура файловой системы.

Структура распределенной файловой системы DFS состоит из корня DFS, одной или нескольких ссылок DFS и указаний на одну или несколько целевых папок.

Сервер домена, на котором располагается корень DFS, называется узловым сервером. Можно реплицировать корень DFS, создав корневые целевые папки на других серверах домена. Это обеспечит доступ к файлам при отключении узлового сервера.

Для пользователей структура DFS предоставляет единый прозрачный интерфейс доступа к сетевым ресурсам. Для системных администраторов структура DFS - это простое пространство имен DNS: при использовании доменной DFS имена DNS корневых папок DFS разрешаются на узловые сервера для корня DFS.

Поскольку узловой сервер доменной распределенной файловой системы является сервером домена, структура DFS по умолчанию автоматически публикуется в Active Directory, обеспечивая синхронизацию структур DFS на узловых серверах. Это, в свою очередь, обеспечивает защиту от сбоев корня DFS и поддерживает возможность репликации целевых папок DFS.

Можно расширить структуру DFS, добавив ссылку DFS к корню DFS. Единственное ограничение на число иерархических уровней в структуре DFS определяется максимальной длиной пути к любому файлу, которая в семействе Windows Server 2003 равна 260 символам. Новая ссылка DFS может указывать на целевую папку, содержащую или не содержащую подпапки, а также на весь том семейства Windows Server 2003. Если у пользователя есть соответствующие разрешения, он может также обращаться к любым локальным папкам, существующим в целевой папке или добавляемым в нее.

Клиенты.

Для обеспечения доступа к структуре DFS вам необходимо установить на компьютеры пользователей клиентский компонент DFS. Ниже приведены типы клиентской поддержки DFS, предоставляемые различными операционными системами.

Автономный клиент DFS работает только с автономными серверами (входящими в состав рабочей группы), на которых расположен корень DFS.

Серверы.

Любая операционная система семейства Windows Server 2003, включая Windows Server 2003 Web Edition, а также Windows 2000 Server, может содержать корень DFS. При этом сервер, на котором расположен корень DFS, может работать как в составе домена, так и в автономном режиме (в составе рабочей группы).

Операционная система Windows NT 4 Server с установленным Service Pack 3 или более поздней версии, тоже может содержать корень DFS, но только в автономном режиме.

Чтобы использовать синхронизацию папок из системы DFS для обеспечения идентичности двух разделяемых файловых ресурсов, корень DFS должен быть расположен на сервере, работающим в режиме домена, а разделяемые файловые ресурсы должны размещаться на разделах NTFS контроллеров домена.

Дерево DFS.

Распределенная файловая система DFS является иерархической древовидной структурой, похожей на обычную файловую систему. Однако, иерархия DFS, в отличие от файловой системы, строится из трех основных элементов: корни DFS, ссылки DFS и цели (целевые папки).

Семейство Windows Server 2003 поддерживает целевые папки на следующих платформах.

Для поддержки синхронизации целевых папок ресурс для ссылки на них должен находиться в разделе NTFS семейства Windows Server 2003.

Корень DFS (DFS root)

Структура дерева DFS начинается с корня DFS, аналогично тому, как файловая система начинается с диска. Корень - начальная точка пространства имен распределенной файловой системы DFS. Корень часто используют для обращения к пространству имен как к целому и сопоставляется одной или нескольким корневым целевым папкам, каждая из которых соответствует общей папке на сервере.

Windows NT 4.0 и Windows 2000 поддерживают только один корень DFS на один сервер. Windows Server 2003 не имеет такого ограничения.

Ссылка создает связь корня DFS с другими разделяемыми файловыми ресурсами и отображается в виде подпапки (подкаталога) корня DFS. DFS-ссылка является элементом в пространстве имен распределенной файловой системы DFS, расположенным ниже корня и сопоставленным одной или нескольким целевым папкам, каждая из которых соответствует общей папке или другому корню DFS.

Ссылка не обязательно должна ссылаться на одну конкретную папку, она может представлять связь с несколькими идентичными папками (не более 32), которые называются целевыми, причем клиент DFS видит их как одну обычную папку.

Целевая папка или цель (target)

Поскольку цель (реплика) состоит из нескольких идентичных папок, клиент DFS выбирает цель случайным образом, что позволяет равномерно распределить нагрузку между серверами. При отключении одной из целей клиентом автоматически выбирается другая цел, обеспечивая тем самым отказоустойчивость и балансирование нагрузки. Можно задавать синхронизацию цели с со всеми другими целями, для этого обязательно корень DFS должен быть в домене, а цели должны размещаться на серверах Windows, с запущеной службой репликации файлов. Эта служба запускается автоматически на контроллерах доменов, а на рядовых серверах запускается вручную из консоли Сервисы (Services).

Создание структуры DFS.

Для того, чтобы создать структуру DFS, необходимо сначала создать корень DFS, затем создать ссылки на любые файловые ресурсы, которые хотите включить в данный корень. Файловые ресурсы должны быть разделяемыми, т.е. с разрешенным общим доступом.

Создание корня.

Корень DFS может быть создан на разделе NTFS, находящемся на компьютере под управлением ОС семейства Windows Server 2003. Можно создать изолированный или доменный корень DFS.

Изолированный корень DFS:

  • не использует службу Active Directory;
  • не может иметь несколько целевых папок корневого уровня;
  • не поддерживает автоматическую репликацию файлов с использованием службы репликации файлов;
  • поддерживает отказоустойчивость, используя кластеры серверов.

Доменный корень DFS:

  • должен находиться на сервере домена;
  • имеет собственное пространство имен DFS, автоматически публикуемое службой Active Directory;
  • может иметь несколько целевых папок корневого уровня;
  • поддерживает автоматическую репликацию файлов с использованием службы репликации файлов;
  • поддерживает отказоустойчивость, используя службу репликации файлов.

С помощью средства администрирования DFS указывается целевая папка, которая сопоставляется корню DFS. Пользователи получают доступ к этой папке и ее подпапкам.

При использовании Windows Server 2003, Enterprise Edition или Windows Server 2003, Datacenter Edition на одном компьютере может размещаться несколько корней DFS. В серверных кластерах имя, назначенное корню DFS вне кластера на локальном запоминающем устройстве узла, должно отличаться от имени корня DFS в кластере на устройстве хранения данных кластера.

Большие доменные пространства имен DFS могут вызвать заметное увеличение сетевого трафика в связи с размером объекта DFS Active Directory. Поэтому рекомендуется использовать не более 5000 ссылок DFS для корня домена. Рекомендуемый размер пространства имен для изолированного корня - не более 50 000 ссылок на серверах под управлением Windows Server 2003.

Если в пространство имен DFS включены корни и корневые папки, которые размещены как на компьютерах под управлением ОС семейства Windows Server 2003, так и под управлением Windows 2000, необходимо выполнять администрирование этих корней с компьютера под управлением Windows Server 2003 или же с компьютера с установленным пакетом средств администрирования Windows Server 2003 Administration Tools Pack. Нельзя управлять этим пространством имен DFS с компьютера под управлением Windows 2000.

Чтобы вносить изменения в существующее пространство имен DFS, необходимо быть членом группы Администраторы на сервере, на котором оно размещено. При этом по соображениям безопасности рекомендуется использовать команду RunAs (Запуск от имени).

Чтобы создать корень DFS выполните следующие действия:

Созданный корень отобразится в консоли Распределенная файловая система DFS.

Добавление корневой целевой папки.

Указание нескольких корневых целевых папок для доменного корня позволяет поддерживать работоспособность распределенной файловой системы, связанной с этим корнем DFS, в тех случаях, когда несущий сервер становится недоступен по каким-либо причинам.

Чтобы добавить корневую целевую папку, выделите корень домена и в меню Действие выберите команду Создать корневую целевую папку . Будет запущен Мастер создания нового корня.

Добавление ссылок.

Ссылка распределенной файловой системы DFS - элемент пространства имен DFS, который находится под корнем и ссылается на одну или несколько целевых папок. Вместо реального имени и физического расположения целевой папки пользователи, работающие с пространством имен DFS, видят имя ссылки, показанное как папка, расположенная под корнем. Поскольку имена ссылок не ограничены именем или расположением целевой папки, можно делать их осмысленными для пользователей. Например, можно создать ссылку «Маркетинг», указывающую на одну или несколько целевых папок, содержащих сведения о маркетинге, независимо от их реальных имен и расположения.

  • Откройте оснастку Распределенная файловая система DFS.
  • В дереве консоли выделите корень DFS.
  • В меню Действие выберите Создать ссылку .
  • В поле Имя ссылки введите имя новой ссылки, в поле Путь к целевой общей папке укажите путь к новой ссылке или нажмите кнопку Обзор , чтобы выбрать имеющуюся общую папку из списка.

Введите комментарий, если требуется дальнейшая идентификация или описание этой ссылки. Введите длительность кэширования этой ссылки (время в секундах) для клиентов DFS и нажмите кнопку OK .

Добавление целевых папок.

Для каждой ссылки DFS можно создать набор целевых папок, на который указывает эта ссылка. Первая папка добавляется в этот набор при создании ссылки DFS. Последующие целевые папки добавляются из диалогового окна Новая целевая папка средства администрирования DFS.

Можно выбрать, какие целевые папки из набора будут участвовать в репликации. Если добавляются целевые папки для корней DFS в домене, необходимо также выполнить следующие действия:

  • Задать политику репликации для целевых папок.
  • Проверить состояние репликации.

Чтобы добавить целевую папку выполните следующие действия:

Резервное копирование и восстановление базы данных.

Резервное копирование и восстановление базы данных DFS, работающей на сервере в домене, осуществляется стандартным способом резервного копирования, используемом в Active Directory.

Для резервного копирования и восстановления базы данных DFS, работающей на автономном сервере, используется утилита командной строки dfscmd. Она создает пакетный (текстовый) файл, содержащий информацию о корне DFS.

Следующие примеры показывают применение утилиты dfscmd (замените Имя_домена и Имя_корня на соответствующие имена).

Для резервного копирования корня DFS используйте следующую запись:

dfscmd /view \\Имя_домена\Имя_корня /batch > dfs_backup.bat

Для резервного копирования корня DFS без проверки правильности ссылок и целей используйте следующую запись:

dfscmd /view \\Имя_домена\Имя_корня /batchrestore > dfs_backup.bat

Для восстановления структуры DFS используйте следующую запись:

dfscmd /view \\Имя_домена\Имя_корня /restore > dfs_backup.bat

Теневые копии общих папок.

Теневые копии общих папок представляют собой копии файлов, расположенных на общих ресурсах, таких как файл-сервер, соответствующие определенному моменту. Теневые копии позволяют просматривать содержимое общих папок по состоянию на тот или иной момент в прошлом.

Теневые копии используются для восстановления файлов, которые были случайно удалены или перезаписаны, а также для сравнения различных версий файлов.

Планирование теневого копирования.

Прежде чем включать теневые копии общих папок и задавать параметры расписания, спланируйте работу теневого копирования, пользуясь следующими рекомендациями:

  • Выберите в качестве хранилища теневых копий том, для которого не выполняется теневое копирование. Использование отдельного тома или другого диска дает два преимущества. Во-первых, устраняется возможность удаления теневых копий из-за высокой загрузки ввода/вывода. Во-вторых, такая конфигурация обеспечивает лучшую производительность. Она рекомендуется для интенсивно используемых файловых серверов.
  • Настройте расписание теневого копирования так, чтобы оно соответствовало расписанию работы клиентов.
  • При создании теневых копий присоединенные диски копироваться не будут. Теневые копии следует включать только для томов без точек подключения или в тех случаях, когда копирование общих ресурсов на присоединенном томе нежелательно.
  • Если включена возможность загрузки предыдущей версии Windows (например, Windows NT 4.0), при загрузке старой версии существующие теневые копии могут быть повреждены и могут оказаться непригодными для использования после того, как компьютер снова будет запущен под управлением Windows Server 2003.
  • Теневые копии общих папок не могут служить заменой регулярной архивации. Для максимальной готовности к восстановлению данных следует использовать программу архивации в координации с теневым копированием общих папок.
  • По умолчанию копирование выполняется в 7:00 и 12:00 с понедельника по пятницу. Если вы считаете, что оно должно производиться чаще, убедитесь, что выделено достаточно места и что производительность сервера не падает из-за слишком частого копирования. На томе можно сохранить до 64 копий, прежде чем самая старая копия будет удалена. Если теневое копирование выполняется слишком часто, этот предел может быть достигнуто очень скоро, что приведет к быстрой потере старых копий.
  • Если том удален, а задача теневого копирования не удалена, она не будет выполнена и в журнал событий будет записано событие с кодом 7001. Удаление задачи позволит избежать заполнения журнала событий такими ошибками.
  • Если планируется выполнять дефрагментацию исходного тома, для которого будут включены теневые копии общих папок, рекомендуется при его первом форматировании установить размер кластера не меньше 16 КБ. В противном случае количество изменений, вызванных дефрагментацией, приведет к удалению предыдущих версий файлов.
  • Если на исходном томе должно применяться сжатие файлов NTFS, размер кластера не может быть больше 4 КБ. В этом случае, если выполняется дефрагментация очень фрагментированного тома, старые теневые копии могут потеряться быстрее, чем предполагалось.

Включение теневых копий общих папок.

Чтобы включить теневые копии общих папок выполните следующее:

Для выполнения этой процедуры необходимо входить в группу Администраторы на локальном компьютере или получить соответствующие полномочия путем делегирования. Если компьютер присоединен к домену, эту процедуру могут выполнять члены группы Администраторы домена.

Настройка параметров.

В следующей таблице перечислены параметры службы теневого копирования, которые можно настраивать:

Параметр

Описание

Место хранения

Задает том, на котором сохраняются теневые копии. По умолчанию это том, содержащий исходные файлы. Для повышения быстродействия на интенсивно используемых файловых серверах рекомендуется использовать отдельный том на другом диске.

Смена тома хранилища возможна только при отсутствии теневых копий. Чтобы сменить том хранилища для тома, на котором уже включены теневые копии, необходимо сначала удалить все теневые копии на этом томе.

Максимальный размер

Задает максимальный объем на конкретном томе, который может использоваться для хранения теневых копий. По умолчанию размер хранилища составляет 10% от размера тома, содержащего исходные файлы, для которых создаются теневые копии. Если теневые копии и исходные файлы хранятся на разных томах, следует изменить этот стандартный параметр, чтобы он отражал размер хранилища, который требуется выделить для теневых копий.

Максимальный размер должен быть не меньше 100 мегабайт (МБ); использование этого ограничения позволяет сохранять только одну теневую копию. Если установлено жесткое ограничение на объем, следует убедиться, что для запланированных теневых копий хватает места. Удаление теневых копий без возможности восстановления из-за ограничений хранилища делает бессмысленным включение теневых копий общих папок.. Чтобы сравнить объем дискового пространства, используемого на томе хранилища, с максимальными ограничениями хранилища, нажмите кнопку Сведения .

Расписание

Задает параметры создания расписания для регулярного выполнения теневого копирования. Следует планировать теневое копирование на время, наиболее удобное для пользователей. По умолчанию копирование выполняется в 7:00 и 12:00 с понедельника по пятницу.

Чтобы изменить параметры теневых копий общих папок выполните следующее:

На одном томе может быть сохранено не более 64 теневых копий. По достижении этого предела самые старые копии будут удаляться без возможности восстановления.

Технологии сжатия файлов на томах NTFS.

Сжатие файлов, папок и программ позволяет сократить их размер и уменьшить объем пространства, занимаемого ими на дисках или устройствах со съемными носителями. Сжатие диска приводит к уменьшению объема пространства, занимаемого всеми файлами и папками на этом диске.

Windows Server 2003 поддерживает два вида сжатия файлов: сжатие NTFS и ZIP-папки.

Сжатие NTFS

Сжатие файлов доступно только на дисках NTFS-формата. Чтобы определить, отформатирован ли диск в файловой системе NTFS, откройте папку Мой компьютер, щелкните диск правой кнопкой мыши и выберите команду Свойства . Файловая система будет показана на вкладке Общие .
*Средствами NTFS можно сжимать как отдельные файлы и папки, так и диски NTFS целиком.
*Можно сжать папку, не сжимая ее содержимого.
*С файлами, сжатыми средствами NTFS, можно работать, не распаковывая их.
*Имена файлов и папок, сжатых средствами NTFS, можно для удобства выделять на экране другим цветом.
*При работе с файлами, сжатыми средствами NTFS, может наблюдаться некоторое снижение быстродействия. При открытии сжатого файла Windows автоматически распаковывает его, а при закрытии снова сжимает. Эти действия могут неблагоприятно отразиться на производительности компьютера.
*Файлы и папки, сжатые средствами NTFS, остаются в сжатом виде только на то время, пока они хранятся на диске NTFS.
*Файл, сжатый средствами NTFS, нельзя шифровать.
*В Windows XP Home Edition не поддерживается шифрование файлов NTFS.

ZIP-папки

ZIP-папки не поддерживаются в Windows XP 64-Bit Edition и 64-разрядных версиях семейства продуктов Windows Server 2003.

Сжатие NTFS.

Чтобы сжать файл или папку на диске NTFS выполните следующие действия:

При копировании файла в сжатую папку он автоматически сжимается. Однако, при перемещении файла в сжатую папку, находящуюся на этом же диске, файл сохраняется в исходном состоянии (сжатом или несжатом). При перемещении файла с другого диска NTFS в сжатую папку, также производится его сжатие.

Файлы и папки, сжимаемые средствами NTFS, нельзя шифровать.

ZIP-папки.

Чтобы создать ZIP-папку выполните следующие действия:

  • Откройте папку Мой компьютер.
  • Дважды щелкните диск (папку).
  • Щелкните правой кнопкой мыши файл (папку), который требуется сжать, и выберите команду Отправить -> Сжатая ZIP-папка.
  • Запускается процесс сжатия файла (папки), в результате которого создается на том же диске (папке) новая папка с именем сжимаемого файла (папки), но с расширением.zip.

При перемещении или копировании файла в ZIP-папку он автоматически сжимается.

Создание общих веб-папок.

Если вы установили службу Internet Information Services (IIS), то вы можете предоставлять папки для общего доступа пользователям вашей сети через браузер (например, Internet Explorer). Для предоставления общего доступа к папке выполните следующее:

По завершении настройки пользователи вашей сети смогут осуществлять доступ к папке через веб-браузер вводя в адресной строке полный путь к папке:

http://win2003s.test.fio.ru/tools

Прежде чем давать общий доступ через веб к папке, поместите в нее файл Default.htm, который будет открываться первым при обращении к данной папке.

Сегодня уже трудно кого-либо удивить разветвленными сетями со сложной
топологией, наличием удаленных и мобильных офисов. Для администратора
организация любого сервиса в таких условиях — дело непростое. Но не нужно
забывать и о наших пользователях — им в этом случае придется работать с большим
количеством разрозненных устройств и ресурсов, находящихся на различных
компьютерах и серверах сети, соответственно, поиск необходимой информации может
быть крайне затруднен. позволяет решить эту
проблему. Давай посмотрим, как именно.

Назначение и возможности DFS

Распределенная файловая система DFS (Distributed File System ) появилась как
стандартный компонент еще в Win2k. Ее задача — облегчить управление, доступ и
поиск данных в сети. Для этого файловые ресурсы, находящиеся на разных
компьютерах, объединяются в единое логическое пространство имен. Пользователь,
вместо того чтобы запоминать имена всех общих сетевых ресурсов (Universal Naming
Convention, UNC), вроде \\Server\Folder, будет обращаться к единому пространству
UNC-имен, в котором объединены все серверы и общие ресурсы сети. А на каком
конкретно компьютере находится запрашиваемый файл, уже забота DFS , пользователю
не нужно беспокоиться о реальном расположении файла. При обращении клиента он
просто перебрасывается на нужный ему каталог. На месте источника, на который
указывает ссылка, может быть любая операционная система, к ресурсам которой
можно обратиться, используя UNC (Windows, Linux, xBSD, NetWare). Физические
объекты, связанные ссылками с DFS , называются целевыми объектами (targets) или
репликами (replics).

Но удобство для пользователей и администраторов — далеко не самое важное из
основных преимуществ DFS
. Дело в том, что с одним логическим именем может быть
связано несколько общих ресурсов, в которых хранится идентичная информация.
Такой набор альтернативных общих ресурсов, связанных с одним логическим именем
DFS , называется набором реплик. И если общие ресурсы находятся в одном
пространстве доменного корня DFS и располагаются на серверах Win2k или Win2k3,
есть возможность настроить автоматическую синхронизацию информации между ними.
Пользователь, обратившийся к DFS , обычно перенаправляется к ближайшей реплике, и
если она не доступна, он будет перенаправлен к альтернативному ресурсу. Для
уменьшения нагрузки на сервер DFS на стороне клиента данные кэшируются, поэтому
при частом обращении к одному и тому же ресурсу каждый запрос к DFS не
производится. Таким образом, автоматическое резервирование важной информации ,
реализованное в DFS , еще и повышает отказоустойчивость всей системы (выход
одного сервера или дискового устройства не повлияет на работу пользователей).
Хотя следует помнить, что DFS не создавалась для работы часто с обновляющимися
данными, и особенно для тех случаев, когда файл одновременно может обновляться в
нескольких местах (в DFS остается та версия файла, где были внесены последние
изменения).

В реализации DFS в Win2k можно было разместить только одно пространство имен,
в Win2k3 их может быть уже несколько. В Win2k3 R2 появилась новая версия этой
системы — DFS Namespaces , в которой многие вопросы уже решены. За репликацию
данных в Win2k3 SP1 и SP2 отвечает FRS (File Replication Server ), в Win2k3 R2 —
DFS Replicatio n. Главным их отличием является то, что в FRS самым маленьким
объектом, подлежащим репликации, является файл, в DFS Replication используется
более развитая технология RDC (Remote Differential Compression ), которая умеет
копировать только изменившиеся части файла, а функция cross-file RDC меньше
нагружает канал при копировании новых файлов. Таким образом, использование DFS
еще и уменьшает нагрузку на сеть, что особенно актуально для удаленных офисов с
недостаточной пропускной способностью. В службе DFS не используется никаких
дополнительных средств обеспечения безопасности. При обращении к targets
проверяются только права доступа файловой системы и установленные для этих
объектов разрешения в каталоге Active Directory.

Эти разные корни

Начальной точкой для всех имен дерева DFS служит корень распределенной
файловой системы. Фактически корень — это некоторый общий ресурс, находящийся на
сервере, все остальные логические имена системы DFS будут подключаться как
следующий иерархический уровень. Корни в DFS могут быть двух видов, каждый
отличается способами хранения данных и возможностями. Изолированный (автономный)
корень (Standalone DFS ) не связан с Active Directory, и все ссылки на сетевые
ресурсы хранятся в реестре самого сервера DFS . Такой корень не использует
DFS
Replication
, то есть не предполагает дублирование информации на другие ресурсы,
и поэтому не обеспечивает отказоустойчивость. При выходе из строя сервера DFS
вся иерархия становится не доступной, хотя пользователи могут обращаться к
ресурсам напрямую. К слову, несколько Standalone DFS серверов способны работать
в кластере, поэтому эта проблема может быть решена. Если сервер DFS является
членом домена, используется доменный корень (Domain-based DFS ). При таком
варианте можно подключать несколько реплик и использовать DFS Replication для
репликации как самого корня, так и ссылок DFS . Если в Domain-based DFS корни
находятся на компьютерах под управлением Win2k и Win2k3, то такой корень
называется "Mixed mode domain DFS ".

При доменном DFS вся информация о пространстве имен находится на контроллере
домена, к которому периодически обращается сервер DFS . Учитывая синхронизацию
между DFS в домене, которая становится все более сложной при каждом изменении
структуры, эти запросы могут быть узким местом в системе, поэтому в этом случае
также есть некоторые ограничения. Так в Win2k существовало ограничение на 16
корней для одного пространства имен. В Win2k3 это ограничение снято, так как
сервер DFS теперь может обращаться к любому DC, а не только к эмулятору PDC.
Второе ограничение доменных корней связано с тем, что вся структура хранится в
специальном объекте, который также необходимо дублировать на всех DC при любом
малейшем изменении в структуре DFS . В документации рекомендуется ограничивать
максимальный размер объекта 5-тью Мб, что приблизительно соответствует 5000
ссылкам (каталогам). Эта величина зависит от многих параметров, длины имени
ссылок, наличия и размера комментариев, которые также хранятся в этом объекте.
Но в среднем DFS редко когда превышает 50-100 ссылок, и после первоначальной
настройки она остается в основном статичной, а значит, часто дублироваться не
будет, и этих ограничений достигнуть просто не удастся. Кстати, в будущей
Windows 2008 ограничение в 5000 ссылок уже снято, но для этого все серверы
должны работать под управлением Longhorn. Для Standalone DFS рекомендованный
лимит ссылок
на порядок выше и составляет 50000 ссылок .

Настройка DFS

Для примера настроим DFS на компьютере под управлением Win2k3 с SP2, все
настройки в SP1 аналогичны. В настройках DFS в R2 и Win2k есть некоторые
отличия, но не настолько глобальные, чтобы не разобраться самостоятельно. Все
управление распределенной файловой системой выполняется централизованно с
помощью оснастки MMC "Распределенная файловая система DFS ", которую можно
вызвать во вкладке "Администрирование" Панели управления Windows. С ее помощью
можно создавать и удалять корни, подключаться к любым корням DFS . Удобно, что в
одной вкладке может отображаться несколько корней DFS . В случае работы корня в "Mixed
mode domain DFS
", то есть когда реплики и корни DFS располагаются на компьютерах
под управлением разных версий Windows, управление DFS необходимо производить с
компьютера, работающего под Win2k3. Как вариант, можно установить пакет Win2k3 Administration Tools Pack (adminpak.msi), который лежит в свободном доступе на
сайте корпорации. В этом случае для управления можно использовать и компьютеры с
WinXP. Информацию по этому пакету найдешь по адресу

support.microsoft.com/kb/304718 . Кроме этого, для работы с DFS также можно
использовать утилиты командной строки dfscmd.exe и dfsutil.exe. Последняя имеет
больше возможностей, но по умолчанию не включена в состав операционной системы,
чтобы ее использовать, необходимо установить пакет Win2k3 Support Tools. Обрати
внимание, что для успешной установки Support Tools требуется скачать два файла:
suptools.msi и support.cab.

Для создания нового корня вызываем оснастку, щелкаем мышкой по заголовку и в
контекстном меню выбираем "Создать корень" (New Root), как вариант, можно
выбрать аналогичный пункт в меню "Действие". Появляется Мастер создания нового
корня (New Root Wizard), следуем его подсказкам. На втором шаге выбираем тип
создаваемого корня (доменный или изолированный), указываем несущий домен и
сервер. После проверки соединения с выбранным сервером вводим имя корня. Обрати
внимание, как будет выглядеть UNC путь к новому корню, по умолчанию \\server\nameshare.
Так как на данный момент общего каталога не существует, на следующем шаге нужно
выбрать локальный каталог, который будет использоваться в качестве общего. Этот
каталог не содержит реальных данных, в нем будут находиться ссылки, указывающие
на физическое расположение данных. Мастер создает ресурсы, разрешающие чтение и
выполнение членам группы Пользователи. При необходимости следует скорректировать
разрешения. Теперь нажимаем кнопку Готово, новый корень появится в окне консоли.
Если сервер работает под управлением Win2k3, аналогичным образом создаем и
другие корни. С помощью команды Проверить статус (Check Status), вызываемую из
меню консоли или контекстного меню, можно проверить состояние реплики. Состояние
будет указано в одноименном столбце и рядом с именем появится кружок с отметкой.
Если она зеленого цвета, значит, все нормально. Для проверки можно зайти по
указанному UNC или использовать на локальном компьютере команду «net share» или
«net view computer_name» с удаленного. Команда «dfsutil /Root:\\server\share /View»
покажет информацию о DFS .

>dfsutil /Root:\\server.com\first /View
DFS Utility Version 5.2 (built on 5.2.3790.3959)
Domain Root with 0 Links
Root Name="\\SERVER\first" Comment="first Root" State="1" Timeout="300"
Target Server="GRINDERS" Folder="first" State="2"

После создания корня его можно опубликовать в Active Directory. Для этого в
контекстном меню выбираем Свойства, переходим на вкладку Публикация и
устанавливаем флажок "Опубликовать этот корень в Active Directory". Доменные
корни публикуются автоматически и в обязательном порядке.

Создание ссылок

После создания корня можно начинать подключать общие ресурсы. Для чего в том
же контекстном меню выбираем пункт Создать ссылку (New Link). В появившемся окне
"Новая ссылка", в поле "Имя ссылки", вводим имя ссылки, под которым она будет
доступна в DFS, затем чуть ниже UNC-путь к целевому каталогу (должен уже
существовать). Для поиска общих ресурсов можно использовать кнопку Обзор, чуть
ниже можно изменить время кэширования этой ссылки для клиентов DFS (по умолчанию
1800 сек). По окончании нажимаем кнопку ОК. Команда «dfsutil /view» должна
показать состояние всех подключенных ссылок и их свойства. Если в сети работает
несколько серверов, есть возможность добавить реплику, указывающую на
альтернативную ссылку. Реплика на корень или отдельный объект создается
аналогично, только в первом случае в контекстном меню выбираем пункт "Создать
корневую целевую папку", а во втором – "Создать папку".

Общие ресурсы, с которыми будет производиться репликация, должны
располагаться в разделах с файловой системой NTFS на компьютерах, работающих под
управлением серверных версий Windows от 2000 (лучше 2003). В поле "Путь к
целевой общей папке" появившегося окна вводим или при помощи кнопки Обзор
указываем общий ресурс, располагающийся на другом компьютере. В том случае если
для синхронизации информации между этими ресурсами планируется использовать
альтернативные программы (или синхронизация будет производиться вручную),
следует снять флажок "Добавить эту целевую папку к набору репликации" (Add this
target to the replication set). Нажимаем ОК, и появляется Мастер настройки
репликации (Configure Replication Wizard), который поможет выбрать
мастер-реплику и топологию репликации. На первом шаге указываем каталог, который
будет использоваться в качестве основного целевого, вся информация из этого
каталога затем будет скопирована в другую папку. Последняя должна быть пустой,
если в ней есть файлы, они будут скопированы во временный каталог, а затем
удалены. Если общий ресурс по каким-либо причинам не подходит для репликации
(например, расположен не в разделе с NTFS), он будет отмечен красным крестиком,
при попытке перейти к следующему шагу мастер предложит указать другую ссылку или
закончить работу.

Нажатием кнопки "Промежуточное хранение " (Staging Folder ) можно изменить
расположение каталога, который будет использоваться для временного хранения
реплицируемых данных. По умолчанию этот каталог размещается в разделе, отличном
от того, на котором находится общий ресурс, связанный с DFS . Далее мастер
предложит выбрать топологию репликации. Необходимо будет указать один из
следующих вариантов:

  • Кольцо (Ring) - все реплики обмениваются информацией с двумя соседними;
  • Звезда (Hub and spoke) - указывается основная ссылка, с которой и будут
    обмениваться информацией все остальные реплики;
  • Полная сетка (Mesh) - все реплики обмениваются друг с другом;
  • Особая (Custom) - позднее администратор самостоятельно настроит репликацию
    для каждой пары серверов.

Кольцевая топология установлена по умолчанию и подходит для большинства
случаев. В идеале выбранная топология репликации должна соответствовать схеме
сети. Например, если есть центральный офис, где располагаются основные ресурсы,
а многочисленные филиалы подключаются к ним по мере необходимости, то в этом
случае больше подойдет схема Звезда. Если ничего из предустановок не подходит,
следует обратиться к пункту Особая.

После создания реплики для ссылки соответствующий ей значок в окне оснастки
изменится. В контекстном меню также появятся два новых пункта: Отобразить/Скрыть
статус репликации и Остановить репликацию. В поле статуса репликации может быть
один из трех результатов. Если процесс репликации завершен нормально, на значках
будут зеленые флажки. Красный крестик на значке реплики укажет, что она в данный
момент недоступна, в поле Состояние подпись изменится на Автономный. Если в
проверяемой ссылке недоступны лишь некоторые реплики, в значке появится желтый
восклицательный знак.

Перед удалением одной из альтернативных реплик сначала следует запретить
репликацию. При возобновлении репликации тебя встретит тот же мастер. Если
сервер является контроллером домена, вместе со всеми данными DFS будет
реплицировать и содержимое тома SYSVOL. Поэтому следует помнить, что до тех пор,
пока не произойдет полная репликация всех реплик, начинать любые изменения в
конфигурации DFS очень рискованно, это может нарушить работоспособность всего
домена.

Если выбранный вариант топологии репликации по каким-либо причинам не
подошел, топологию репликации впоследствии можно легко изменить, выбрав окно
свойств соответствующей ссылки и перейдя на вкладку Репликация. Здесь находятся
еще несколько полезных настроек. По умолчанию репликация выполняется постоянно,
нажав кнопку Расписание, можно изменить расписание репликаций для всех
подключений. Чуть ниже указываются фильтры для файлов и подпапки, которые не
будут реплицироваться. Для этого нажимаем Изменить и вводим шаблоны файлов или
подкаталогов.

Для принудительной репликации информации, хранящейся на определенном сервере,
можно воспользоваться утилитой NtfrsUtl.exe, которая входит в состав пакета
Support Tools . Команда проста: «ntfrsutl poll /now server.com». Чтобы увидеть
установленные временные интервалы, через которые производится репликация,
следует ввести «ntfrsutl poll». Все установки доступны по команде «ntfrsutl sets
server.com».

В окне свойств общего ресурса, представленного в службе DFS , появится еще
одна вкладка – DFS . Открыв ее, пользователь может просмотреть, с какими общими
папками сопоставлена эта ссылка, проверить состояние реплики, выбрать активную
реплику, к которой он будет перенаправляться в первую очередь.

Администратору для контроля следует почаще заглядывать в журнал
"Администрирование – Просмотр событий – Служба репликации файлов", где можно
найти информацию обо всех событиях, происходящих со службой FRS.

В настоящее время, в условиях роста информации, возникают задачи хранения и обработки данных очень большого объема. Поэтому эти данные обрабатывается сразу на нескольких серверах одновременно, которые образуют кластеры. Для упрощения работы с данными на кластерах и разрабатывают распределенные файловые системы. Мы подробно рассмотрим пример распределенной файловой системы Google File System , используемую компанией Google . (Статья является, фактически, вольным и урезанным переводом оригинальной статьи).

GFS является наиболее, наверное, известной распределенной файловой системой. Надежное масштабируемое хранение данных крайне необходимо для любого приложения, работающего с таким большим массивом данных, как все документы в интернете. GFS является основной платформой хранения информации в Google . GFS - большая распределенная файловая система, способная хранить и обрабатывать огромные объемы информации.
GFS строилась исходя из следующим критериев:

  • Система строится из большого количества обыкновенного недорого оборудования, которое часто дает сбои. Должны существовать мониторинг сбоев, и возможность в случае отказа какого-либо оборудования восстановить функционирование системы.
  • Система должна хранить много больших файлов. Как правило, несколько миллионов файлов, каждый от 100 Мб и больше. Также часто приходится иметь дело с многогигабайтными файлами, которые также должны эффективно храниться. Маленькие файлы тоже должны храниться, но для них не оптимизируется работа системы.
  • Как правило, встречаются два вида чтения: чтение большого последовательного фрагмента данных и чтение маленького объема произвольных данных. При чтении большого потока данных обычным делом является запрос фрагмента размером в 1Мб и больше. Такие последовательные операции от одного клиента часто читают подряд идущие куски одного и того же файла. Чтение небольшого размера данных, как правило, имеет объем в несколько килобайт. Приложения, критические по времени исполнения, должны накопить определенное количество таких запросов и отсортировать их по смещению от начала файла. Это позволит избежать при чтении блужданий вида назад-вперед.
  • Часто встречаются операции записи большого последовательного куска данных, который необходимо дописать в файл. Обычно, объемы данных для записи такого же порядка, что и для чтения. Записи небольших объемов, но в произвольные места файла, как правило, выполняются не эффективно.
  • Система должна реализовывать строго очерченную семантику параллельной работы нескольких клиентов, в случае если они одновременно пытаются дописать данные в один и тот же файл. При этом может случиться так, что поступят одновременно сотни запросов на запись в один файл. Для того чтобы справится с этим, используется атомарность операций добавления данных в файл, с некоторой синхронизацией. То есть если поступит операция на чтение, то она будет выполняться, либо до очередной операции записи, либо после.
  • Высокая пропускная способность является более предпочтительной, чем маленькая задержка. Так, большинство приложений в Google отдают предпочтение работе с большими объемами данных, на высокой скорости, а выполнение отдельно взятой операции чтения и записи, вообще говоря, может быть растянуто.
Файлы в GFS организованы иерархически, при помощи каталогов, как и в любой другой файловой системе, и идентифицируются своим путем. С файлами в GFS можно выполнять обычные операции: создание, удаление, открытие, закрытие, чтение и запись.
Более того, GFS поддерживает резервные копии, или снимки (snapshot). Можно создавать такие резервные копии для файлов или дерева директорий, причем с небольшими затратами.

Архитектура GFS

Рисунок взят из оригинальной статьи.

В системе существуют мастер-сервера и чанк-сервера, собственно, хранящие данные. Как правило, GFS кластер состоит из одной главной машины мастера (master) и множества машин, хранящих фрагменты файлов чанк-серверы (chunkservers). Клиенты имеют доступ ко всем этим машинам. Файлы в GFS разбиваются на куски - чанки (chunk, можно сказать фрагмент). Чанк имеет фиксированный размер, который может настраиваться. Каждый такой чанк имеет уникальный и глобальный 64 - битный ключ, который выдается мастером при создании чанка. Чанк-серверы хранят чанки, как обычные Linux файлы, на локальном жестком диске. Для надежности каждый чанк может реплицироваться на другие чанк-серверы. Обычно используются три реплики.
Мастер отвечает за работу с метаданными всей файловой системы. Метаданные включают в себя пространства имен, информацию о контроле доступа к данным, отображение файлов в чанки, и текущее положение чанков. Также мастер контролирует всю глобальную деятельность системы такую, как управление свободными чанками, сборка мусора (сбор более ненужных чанков) и перемещение чанков между чанк-серверами. Мастер постоянно обменивается сообщениями (HeartBeat messages) с чанк-серверами, чтобы отдать инструкции, и определить их состояние (узнать, живы ли еще).
Клиент взаимодействует с мастером только для выполнения операций, связанных с метаданными. Все операции с самими данными производятся напрямую с чанк-серверами. GFS - система не поддерживает POSIX API, так что разработчикам не пришлось связываться с VNode уровнем Linux.
Разработчики не используют кеширование данных, правда, клиенты кешируют метаданные. На чанк-серверах операционная система Linux и так кеширует наиболее используемые блоки в памяти. Вообще, отказ от кеширования позволяет не думать о проблеме валидности кеша (cache coherence).

Мастер

Использование одного мастера существенно упрощает архитектуру системы. Позволяет производить сложные перемещения чанков, организовывать репликации, используя глобальные данные. Казалось бы, что наличие только одного мастера должно являться узким местом системы, но это не так. Клиенты никогда не читают и не пишут данные через мастера. Вместо этого они спрашивают у мастера, с каким чанк-сервером они должны контактировать, а далее они общаются с чанк-серверами напрямую.
Рассмотрим, как происходит чтение данных клиентом. Сначала, зная размер чанка,
имя файла и смещение относительно начала файла, клиент определяет номер чанка внутри файла. Затем он шлет запрос мастеру, содержащий имя файла и номер чанка в этом файле. Мастер выдает чанк-серверы, по одному в каждой реплике, которые хранят нужный нам чанк. Также мастер выдает клиенту идентификатор чанка.
Затем клиент решает, какая из реплик ему нравится больше (как правило та, которая ближе), и шлет запрос, состоящий из чанка и смещения относительно начала чанка. Дальнейшее чтения данных, не требует вмешательства мастера. На практике, как правило, клиент в один запрос на чтение включает сразу несколько чанков, и мастер дает координаты каждого из чанков в одном ответе.
Размер чанка является важной характеристикой системы. Как правило, он устанавливается равным 64 мегабайт, что гораздо больше, чем размер блока в обычной файловой системе. Понятно, что если необходимо хранить много файлов, размеры которых меньше размера чанка, то будем расходоваться много лишней памяти. Но выбор такого большого размера чанка обусловлен задачами, которые приходится компании Google решать на своих кластерах. Как правило, что-то считать приходится для всех документов в интернете, и поэтому файлы в этих задачах очень большого размера.

Метаданные

Мастер хранит три важных вида метаданных: пространства имен файлов и чанков, отображение файла в чанки и положение реплик чанков. Все метаданные хранятся в памяти мастера. Так как метаданные хранятся в памяти, операции мастера выполняются быстро. Состояние дел в системе мастер узнает просто и эффективно. Он выполняется сканирование чанк-серверов в фоновом режиме. Эти периодические сканирования используются для сборки мусора, дополнительных репликаций, в случае обнаружения недоступного чанк-сервера и перемещение чанков, для балансировки нагрузки и свободного места на жестких дисках чанк-серверов.
Мастер отслеживает положение чанков. При старте чанк-сервера мастер запоминает его чанки. В процессе работы мастер контролирует все перемещения чанков и состояния чанк-серверов. Таким образом, он обладает всей информацией о положении каждого чанка.
Важная часть метаданных - это лог операций. Мастер хранит последовательность операций критических изменений метаданных. По этим отметкам в логе операций, определяется логическое время системы. Именно это логическое время определяет версии файлов и чанков.
Так как лог операций важная часть, то он должен надежно храниться, и все изменения в нем должны становиться видимыми для клиентов, только когда изменятся метаданные. Лог операций реплицируется на несколько удаленных машин, и система реагирует на клиентскую операцию, только после сохранения этого лога на диск мастера и диски удаленных машин.
Мастер восстанавливает состояние системы, исполняя лог операций. Лог операций сохраняет относительно небольшой размер, сохраняя только последние операции. В процессе работы мастер создает контрольные точки, когда размер лога превосходит некоторой величины, и восстановить систему можно только до ближайшей контрольной точки. Далее по логу можно заново воспроизвести некоторые операции, таким образом, система может откатываться до точки, которая находится между последней контрольной точкой и текущем временем.

Взаимодействия внутри системы

Выше была описана архитектура системы, которая минимизирует вмешательства мастера в выполнение операций. Теперь же рассмотрим, как взаимодействуют клиент, мастер и чанк-серверы для перемещения данных, выполнения атомарных операций записи, и создания резервной копии (snapshot).
Каждое изменение чанка должно дублироваться на всех репликах и изменять метаданные. В GFS мастер дает чанк во владение (lease) одному из серверов, хранящих этот чанк. Такой сервер называется первичной (primary) репликой. Остальные реплики объявляются вторичными (secondary). Первичная реплика собирает последовательные изменения чанка, и все реплики следуют этой последовательности, когда эти изменения происходят.
Механизм владения чанком устроен таким образом, чтобы минимизировать нагрузку на мастера. При выделении памяти сначала выжидается 60 секунд. А затем, если потребуется первичная реплика может запросить мастера на расширение этого интервала и, как правило, получает положительный ответ. В течение этого выжидаемого периода мастер может отменить изменения.
Рассмотрим подробно процесс записи данных. Он изображен по шагам на рисунке, при этом тонким линиям соответствуют потоки управления, а жирным потоки данных.


Этот рисунок также взят из оригинальной статьи.
  1. Клиент спрашивает мастера, какой из чанк-серверов владеет чанком, и где находится этот чанк в других репликах. Если необходимо, то мастер отдает чанк кому-то во владение.
  2. Мастер в ответ выдает первичную реплику, и остальные (вторичные) реплики. Клиент хранит эти данные для дальнейших действий. Теперь, общение с мастером клиенту может понадобиться только, если первичная реплика станет недоступной.
  3. Далее клиент отсылает данные во все реплики. Он может это делать в произвольном порядке. Каждый чанк-сервер будет их хранить в специальном буфере, пока они не понадобятся или не устареют.
  4. Когда все реплики примут эти данные, клиент посылает запрос на запись первичной реплике. В этом запросе содержатся идентификация данных, которые были посланы в шаге 3. Теперь первичная реплика устанавливает порядок, в котором должны выполняться все изменения, которые она получила, возможно от нескольких клиентов параллельно. И затем, выполняет эти изменения локально в этом определенном порядке.
  5. Первичная реплика пересылает запрос на запись всем вторичным репликам. Каждая вторичная реплика выполняет эти изменения в порядке, определенном первичной репликой.
  6. Вторичные реплики рапортуют об успешном выполнении этих операций.
  7. Первичная реплика шлет ответ клиенту. Любые ошибки, возникшие в какой-либо реплике, также отсылаются клиенту. Если ошибка возникла при записи в первичной реплике, то и запись во вторичные реплики не происходит, иначе запись произошла в первичной реплике, и подмножестве вторичных. В этом случае клиент обрабатывает ошибку и решает, что ему дальше с ней делать.
Из примера выше видно, что создатели разделили поток данных и поток управления. Если поток управления идет только в первичную реплику, то поток данных идет во все реплики. Это сделано, чтобы избежать создания узких мест в сети, а взамен широко использовать пропускную способность каждой машины. Так же, чтобы избежать узких мест и перегруженных связей, используется схема передачи ближайшему соседу по сетевой топологии. Допустим, что клиент передает данные чанк-серверам S1 ,..., S4 . Клиент шлет ближайшему серверу данные, пусть S1 . Он далее пересылает ближайшему серверу, пусть будет S2 . Далее S2 пересылает их ближайшему S3 или S4 , и так далее.
Также задержка минимизируется за счет использования конвейеризации пакетов передаваемых данных по TCP . То есть, как только чанк-сервер получил какую-то часть данных, он немедленно начинает их пересылать. Без сетевых заторов, идеальное время рассылки данных объемом B байт на R реплик будет B/T + RL , где T сетевая пропускная способность, а L - задержка при пересылке одного байта между двумя машинами.
GFS поддерживает такую операцию, как атомарное добавление данных в файл. Обычно, при записи каких-то данных в файл, мы указываем эти данные и смещение. Если несколько клиентов производят подобную операцию, то эти операции нельзя переставлять местами (это может привести к некорректной работе). Если же мы просто хотим дописать данные в файл, то в этом случае мы указываем только сами данные. GFS добавит их атомарной операцией. Вообще говоря, если операция не выполнилась на одной из вторичных реплик, то GFS , вернет ошибку, а данные будут на разных репликах различны.
Еще одна интересная вещь в GFS - это резервные копии (еще можно сказать мгновенный снимок) файла или дерева директорий, которые создаются почти мгновенно, при этом, почти не прерывая выполняющиеся операции в системе. Это получается за счет технологии похожей на сopy on write . Пользователи используют эту возможность для создания веток данных или как промежуточную точку, для начала каких-то экспериментов.

Операции, выполняемые мастером

Мастер важное звено в системе. Он управляет репликациями чанков: принимает решения о размещении, создает новые чанки, а также координирует различную деятельность внутри системы для сохранения чанков полностью реплицированными, балансировки нагрузки на чанк-серверы и сборки неиспользуемых ресурсов.
В отличие от большинства файловых систем GFS не хранит состав файлов в директории. GFS логически представляет пространство имен, как таблицу, которая отображает каждый путь в метаданные. Такая таблица может эффективно храниться в памяти в виде бора (словаря этих самых путей). Каждая вершина в этом дереве (соответствует либо абсолютному пути к файлу, либо к директории) имеет соответствующие данные для блокировки чтения и записи(read write lock). Каждое операция мастера требует установления некоторых блокировок. В этом месте в системе используются блокировки чтения-записи. Обычно, если операция работает с /d1/d2/.../dn/leaf , то она устанавливает блокировки на чтение на /d1, /d1/d2, ..., d1/d2/.../dn и блокировку, либо на чтение, либо на запись на d1/d2/.../dn/leaf . При этом leaf может быть как директорией, так и файлом.
Покажем на примере, как механизм блокировок может предотвратить создание файла /home/user/foo во время резервного копирования /home/user в /save/user . Операция резервного копирования устанавливает блокировки на чтение на /home и /save , а так же блокировки на запись на /home/user и /save/user . Операция создания файла требует блокировки на чтение /home и /home/user , а также блокировки на запись на /home/user/foo . Таким образом, вторая операция не начнет выполняться, пока не закончит выполнение первая, так как есть конфликтующая блокировка на /home/user . При создании файла не требуется блокировка на запись родительской директории, достаточно блокировки на чтение, которая предотвращает удаление этой директории.
Кластеры GFS , являются сильно распределенными и многоуровневыми. Обычно, такой кластер имеет сотни чанк-серверов, расположенных на разных стойках. Эти сервера, вообще говоря, доступны для большого количества клиентов, расположенных в той же или другой стойке. Соединения между двумя машинами из различных стоек может проходить через один или несколько свитчей. Многоуровневое распределение представляет очень сложную задачу надежного, масштабируемого и доступного распространения данных.
Политика расположения реплик старается удовлетворить следующим свойствам: максимизация надежности и доступности данных и максимизация использование сетевой пропускной способности. Реплики должны быть расположены не только на разных дисках или разных машинах, но и более того на разных стойках. Это гарантирует, что чанк доступен, даже если целая стойка повреждена или отключена от сети. При таком расположении чтение занимает время приблизительно равное пропускной способности сети, зато поток данных при записи должен пройти через различные стойки.
Когда мастер создает чанк, он выбирает где разместить реплику. Он исходит из нескольких факторов:
  • Желательно поместить новую реплику на чанк-сервер с наименьшей средней загруженностью дисков. Это будет со временем выравнивать загруженность дисков на различных серверах.
  • Желательно ограничить число новых создаваемых чанков на каждом чанк-сервере. Несмотря на то, что создание чанка сама по себе быстрая операция, она подразумевает последующую запись данных в этот чанк, что уже является тяжелой операцией, и это может привести к разбалансировке объема трафика данных на разные части системы.
  • Как сказано выше, желательно распределить чанки среди разных стоек.
Как только число реплик падает ниже устанавливаемой пользователем величины, мастер снова реплицирует чанк. Это может случиться по нескольким причинам: чанк-сервер стал недоступным, один из дисков вышел из строя или увеличена величина, задающая число реплик. Каждому чанку, который должен реплицироваться, устанавливается приоритет, который тоже зависит от нескольких факторов. Во-первых, приоритет выше у того чанка, который имеет наименьшее число реплик. Во-вторых, чтобы увеличить надежность выполнения приложений, увеличивается приоритет у чанков, которые блокируют прогресс в работе клиента
Мастер выбирает чанк с наибольшим приоритетом и копирует его, отдавая инструкцию одному из чанк-серверов, скопировать его с доступной реплики. Новая реплика располагается, исходя из тех же причин, что и при создании.
Во время работы мастер постоянно балансирует реплики. В зависимости от распределения реплик в системе, он перемещает реплику для выравнивания загруженности дисков и балансировки нагрузки. Также мастер должен решать, какую из реплик стоит удалить. Как правило, удаляется реплика, которая находится на чанк-сервере с наименьшим свободным местом на жестких дисках.
Еще одна важная функция, лежащая на мастере - это сборка мусора. При удалении файла, GFS не требует мгновенного возвращения освободившегося дискового пространства. Он делает это во время регулярной сборки мусора, которая происходит как на уровне чанков, так и на уровне файлов. Авторы считают, что такой подход делает систему более простой и надежной.
При удалении файла приложением, мастер запоминает в логах этот факт, как и многие другие. Тем не менее, вместо требования немедленного восстановления освободившихся ресурсов, файл просто переименовывается, причем в имя файла добавляется время удаления, и он становится невидимым пользователю. А мастер, во время регулярного сканирования пространства имен файловой системы, реально удаляет все такие скрытые файлы, которые были удалены пользователем более трех дней назад (этот интервал настраивается). А до этого момента файл продолжает находиться в системе, как скрытый, и он может быть прочитан или переименован обратно для восстановления. Когда скрытый файл удаляется мастером, то информация о нем удаляется также из метаданных, а все чанки этого файла отцепляются от него.
Мастер помимо регулярного сканирования пространства имен файлов делает аналогичное сканирование пространства имен чанков. Мастер определяет чанки, которые отсоединены от файла, удаляет их из метаданных и во время регулярных связей с чанк-серверами передает им сигнал о возможности удаления всех реплик, содержащих заданный чанк. У такого подхода к сборке мусора много преимуществ, при одном недостатке: если место в системе заканчивается, а отложенное удаление увеличивает неиспользуемое место, до момента самого физического удаления. Зато есть возможность восстановления удаленных данных, возможность гибкой балансировки нагрузки при удалении и возможность восстановления системы, в случае каких-то сбоев.

Устойчивость к сбоям и диагностика ошибок

Авторы системы считают одной из наиболее сложных проблем частые сбои работы компонентов системы. Количество и качество компонентов делают эти сбои не просто исключением, а скорее нормой. Сбой компонента может быть вызван недоступностью этого компонента или, что хуже, наличием испорченных данных. GFS поддерживает систему в рабочем виде при помощи двух простых стратегий: быстрое восстановление и репликации.
Быстрое восстановление - это, фактически, перезагрузка машины. При этом время запуска очень маленькое, что приводит к маленькой заминке, а затем работа продолжается штатно. Про репликации чанков уже говорилось выше. Мастер реплицирует чанк, если одна из реплик стала недоступной, либо повредились данные, содержащие реплику чанка. Поврежденные чанки определяется при помощи вычисления контрольных сумм.
Еще один вид репликаций в системе, про который мало было сказано - это репликация мастера. Реплицируется лог операций и контрольные точки (checkpoints). Каждое изменение файлов в системе происходит только после записи лога операций на диски мастером, и диски машин, на которые лог реплицируется. В случае небольших неполадок мастер может перезагрузиться. В случае проблем с жестким диском или другой жизненно важной инфраструктурой мастера, GFS стартует нового мастера, на одной из машин, куда реплицировались данные мастера. Клиенты обращаются к мастеру по DNS, который может быть переназначен новой машине. Новый мастер является тенью старого, а не точной копией. Поэтому у него есть доступ к файлам только для чтения. То есть он не становится полноценным мастером, а лишь поддерживает лог операций и другие структуры мастера.
Важной частью системы является возможность поддерживать целостность данных. Обычный GFS кластер состоит из сотен машин, на которых расположены тысячи жестких дисков, и эти диски при работе с завидным постоянством выходят из строя, что приводит к порче данных. Система может восстановить данные с помощью репликаций, но для этого необходимо понять испортились ли данные. Простое сравнение различных реплик на разных чанк-серверах является неэффективным. Более того, может происходить несогласованность данных между различными репликами, ведущая к различию данных. Поэтому каждый чанк-сервер должен самостоятельно определять целостность данных.
Каждый чанк разбивается на блоки длиной 64 Кбайт . Каждому такому блоку соответствует 32 -битная контрольная сумма. Как и другие метаданные эти суммы хранятся в памяти, регулярно сохраняются в лог, отдельно от данных пользователя.
Перед тем как считать данные чанк-сервер проверяет контрольные суммы блоков чанка, которые пересекаются с затребованными данными пользователем или другим чанк-сервером. То есть чанк-сервер не распространяет испорченные данные. В случае несовпадения контрольных сумм, чанк-сервер возвращает ошибку машине, подавшей запрос, и рапортует о ней мастеру. Пользователь может считать данные из другой реплики, а мастер создает еще одну копию из данных другой реплики. После этого мастер дает инструкцию этому чанк-серверу об удалении этой испорченной реплики.
При добавлении новых данных, верификация контрольных сумм не происходит, а для блоков записывается новые контрольные суммы. В случае если диск испорчен, то это определится при попытке чтения этих данных. При записи чанк-сервер сравнивает только первый и последний блоки, пересекающиеся с границами, в которые происходит запись, поскольку часть данных на этих блоках не перезаписывается и необходимо проверить их целостность.

Сегодня уже трудно кого-либо удивить разветвленными сетями со сложной топологией, наличием удаленных и мобильных офисов. Для администратора организация любого сервиса в таких условиях – дело непростое. Но не нужно забывать и о наших пользователях – им в этом случае придется работать с большим количеством разрозненных устройств и ресурсов, находящихся на различных компьютерах и серверах сети, соответственно, поиск необходимой информации может быть крайне затруднен. позволяет решить эту проблему. Давай посмотрим, как именно.

Назначение и возможности DFS

Распределенная файловая система DFS (Distributed File System ) появилась как стандартный компонент еще в Win2k. Ее задача – облегчить управление, доступ и поиск данных в сети. Для этого файловые ресурсы, находящиеся на разных компьютерах, объединяются в единое логическое пространство имен. Пользователь, вместо того чтобы запоминать имена всех общих сетевых ресурсов (Universal Naming Convention, UNC), вроде \\Server\Folder, будет обращаться к единому пространству UNC-имен, в котором объединены все серверы и общие ресурсы сети. А на каком конкретно компьютере находится запрашиваемый файл, уже забота DFS , пользователю не нужно беспокоиться о реальном расположении файла. При обращении клиента он просто перебрасывается на нужный ему каталог. На месте источника, на который указывает ссылка, может быть любая операционная система, к ресурсам которой можно обратиться, используя UNC (Windows, Linux, xBSD, NetWare). Физические объекты, связанные ссылками с DFS , называются целевыми объектами (targets) или репликами (replics).

Но удобство для пользователей и администраторов – далеко не самое важное из основных преимуществ DFS . Дело в том, что с одним логическим именем может быть связано несколько общих ресурсов, в которых хранится идентичная информация. Такой набор альтернативных общих ресурсов, связанных с одним логическим именем DFS , называется набором реплик. И если общие ресурсы находятся в одном пространстве доменного корня DFS и располагаются на серверах Win2k или Win2k3, есть возможность настроить автоматическую синхронизацию информации между ними. Пользователь, обратившийся к DFS , обычно перенаправляется к ближайшей реплике, и если она не доступна, он будет перенаправлен к альтернативному ресурсу. Для уменьшения нагрузки на сервер DFS на стороне клиента данные кэшируются, поэтому при частом обращении к одному и тому же ресурсу каждый запрос к DFS не производится. Таким образом, автоматическое резервирование важной информации , реализованное в DFS , еще и повышает отказоустойчивость всей системы (выход одного сервера или дискового устройства не повлияет на работу пользователей). Хотя следует помнить, что DFS не создавалась для работы часто с обновляющимися данными, и особенно для тех случаев, когда файл одновременно может обновляться в нескольких местах (в DFS остается та версия файла, где были внесены последние изменения).

В реализации DFS в Win2k можно было разместить только одно пространство имен, в Win2k3 их может быть уже несколько. В Win2k3 R2 появилась новая версия этой системы – DFS Namespaces , в которой многие вопросы уже решены. За репликацию данных в Win2k3 SP1 и SP2 отвечает FRS (File Replication Server ), в Win2k3 R2 – DFS Replicatio n. Главным их отличием является то, что в FRS самым маленьким объектом, подлежащим репликации, является файл, в DFS Replication используется более развитая технология RDC (Remote Differential Compression ), которая умеет копировать только изменившиеся части файла, а функция cross-file RDC меньше нагружает канал при копировании новых файлов. Таким образом, использование DFS еще и уменьшает нагрузку на сеть, что особенно актуально для удаленных офисов с недостаточной пропускной способностью. В службе DFS не используется никаких дополнительных средств обеспечения безопасности. При обращении к targets проверяются только права доступа файловой системы и установленные для этих объектов разрешения в каталоге Active Directory.

Эти разные корни

Начальной точкой для всех имен дерева DFS служит корень распределенной файловой системы. Фактически корень – это некоторый общий ресурс, находящийся на сервере, все остальные логические имена системы DFS будут подключаться как следующий иерархический уровень. Корни в DFS могут быть двух видов, каждый отличается способами хранения данных и возможностями. Изолированный (автономный) корень (Standalone DFS ) не связан с Active Directory, и все ссылки на сетевые ресурсы хранятся в реестре самого сервера DFS . Такой корень не использует DFS Replication , то есть не предполагает дублирование информации на другие ресурсы, и поэтому не обеспечивает отказоустойчивость. При выходе из строя сервера DFS вся иерархия становится не доступной, хотя пользователи могут обращаться к ресурсам напрямую. К слову, несколько Standalone DFS серверов способны работать в кластере, поэтому эта проблема может быть решена. Если сервер DFS является членом домена, используется доменный корень (Domain-based DFS ). При таком варианте можно подключать несколько реплик и использовать DFS Replication для репликации как самого корня, так и ссылок DFS . Если в Domain-based DFS корни находятся на компьютерах под управлением Win2k и Win2k3, то такой корень называется “Mixed mode domain DFS “.

При доменном DFS вся информация о пространстве имен находится на контроллере домена, к которому периодически обращается сервер DFS . Учитывая синхронизацию между DFS в домене, которая становится все более сложной при каждом изменении структуры, эти запросы могут быть узким местом в системе, поэтому в этом случае также есть некоторые ограничения. Так в Win2k существовало ограничение на 16 корней для одного пространства имен. В Win2k3 это ограничение снято, так как сервер DFS теперь может обращаться к любому DC, а не только к эмулятору PDC. Второе ограничение доменных корней связано с тем, что вся структура хранится в специальном объекте, который также необходимо дублировать на всех DC при любом малейшем изменении в структуре DFS . В документации рекомендуется ограничивать максимальный размер объекта 5-тью Мб, что приблизительно соответствует 5000 ссылкам (каталогам). Эта величина зависит от многих параметров, длины имени ссылок, наличия и размера комментариев, которые также хранятся в этом объекте. Но в среднем DFS редко когда превышает 50-100 ссылок, и после первоначальной настройки она остается в основном статичной, а значит, часто дублироваться не будет, и этих ограничений достигнуть просто не удастся. Кстати, в будущей Windows 2008 ограничение в 5000 ссылок уже снято, но для этого все серверы должны работать под управлением Longhorn. Для Standalone DFS рекомендованный лимит ссылок на порядок выше и составляет 50000 ссылок .

Настройка DFS

Для примера настроим DFS на компьютере под управлением Win2k3 с SP2, все настройки в SP1 аналогичны. В настройках DFS в R2 и Win2k есть некоторые отличия, но не настолько глобальные, чтобы не разобраться самостоятельно. Все управление распределенной файловой системой выполняется централизованно с помощью оснастки MMC “Распределенная файловая система DFS “, которую можно вызвать во вкладке “Администрирование” Панели управления Windows. С ее помощью можно создавать и удалять корни, подключаться к любым корням DFS . Удобно, что в одной вкладке может отображаться несколько корней DFS . В случае работы корня в “Mixed mode domain DFS “, то есть когда реплики и корни DFS располагаются на компьютерах под управлением разных версий Windows, управление DFS необходимо производить с компьютера, работающего под Win2k3. Как вариант, можно установить пакет Win2k3 Administration Tools Pack (adminpak.msi), который лежит в свободном доступе на сайте корпорации. В этом случае для управления можно использовать и компьютеры с WinXP. Информацию по этому пакету найдешь по адресу support.microsoft.com/kb/304718 . Кроме этого, для работы с DFS также можно использовать утилиты командной строки dfscmd.exe и dfsutil.exe. Последняя имеет больше возможностей, но по умолчанию не включена в состав операционной системы, чтобы ее использовать, необходимо установить пакет Win2k3 Support Tools. Обрати внимание, что для успешной установки Support Tools требуется скачать два файла: suptools.msi и support.cab.

Для создания нового корня вызываем оснастку, щелкаем мышкой по заголовку и в контекстном меню выбираем “Создать корень” (New Root), как вариант, можно выбрать аналогичный пункт в меню “Действие”. Появляется Мастер создания нового корня (New Root Wizard), следуем его подсказкам. На втором шаге выбираем тип создаваемого корня (доменный или изолированный), указываем несущий домен и сервер. После проверки соединения с выбранным сервером вводим имя корня. Обрати внимание, как будет выглядеть UNC путь к новому корню, по умолчанию \\server\nameshare. Так как на данный момент общего каталога не существует, на следующем шаге нужно выбрать локальный каталог, который будет использоваться в качестве общего. Этот каталог не содержит реальных данных, в нем будут находиться ссылки, указывающие на физическое расположение данных. Мастер создает ресурсы, разрешающие чтение и выполнение членам группы Пользователи. При необходимости следует скорректировать разрешения. Теперь нажимаем кнопку Готово, новый корень появится в окне консоли. Если сервер работает под управлением Win2k3, аналогичным образом создаем и другие корни. С помощью команды Проверить статус (Check Status), вызываемую из меню консоли или контекстного меню, можно проверить состояние реплики. Состояние будет указано в одноименном столбце и рядом с именем появится кружок с отметкой. Если она зеленого цвета, значит, все нормально. Для проверки можно зайти по указанному UNC или использовать на локальном компьютере команду «net share» или «net view computer_name» с удаленного. Команда «dfsutil /Root:\\server\share /View» покажет информацию о DFS .

>dfsutil /Root:\\server.com\first /View
DFS Utility Version 5.2 (built on 5.2.3790.3959)
Domain Root with 0 Links
Root Name="\\SERVER\first" Comment="first Root" State="1" Timeout="300"
Target Server="GRINDERS" Folder="first" State="2"

После создания корня его можно опубликовать в Active Directory. Для этого в контекстном меню выбираем Свойства, переходим на вкладку Публикация и устанавливаем флажок “Опубликовать этот корень в Active Directory”. Доменные корни публикуются автоматически и в обязательном порядке.

Создание ссылок

После создания корня можно начинать подключать общие ресурсы. Для чего в том же контекстном меню выбираем пункт Создать ссылку (New Link). В появившемся окне “Новая ссылка”, в поле “Имя ссылки”, вводим имя ссылки, под которым она будет доступна в DFS, затем чуть ниже UNC-путь к целевому каталогу (должен уже существовать). Для поиска общих ресурсов можно использовать кнопку Обзор, чуть ниже можно изменить время кэширования этой ссылки для клиентов DFS (по умолчанию 1800 сек). По окончании нажимаем кнопку ОК. Команда «dfsutil /view» должна показать состояние всех подключенных ссылок и их свойства. Если в сети работает несколько серверов, есть возможность добавить реплику, указывающую на альтернативную ссылку. Реплика на корень или отдельный объект создается аналогично, только в первом случае в контекстном меню выбираем пункт “Создать корневую целевую папку”, а во втором – “Создать папку”.

Общие ресурсы, с которыми будет производиться репликация, должны располагаться в разделах с файловой системой NTFS на компьютерах, работающих под управлением серверных версий Windows от 2000 (лучше 2003). В поле “Путь к целевой общей папке” появившегося окна вводим или при помощи кнопки Обзор указываем общий ресурс, располагающийся на другом компьютере. В том случае если для синхронизации информации между этими ресурсами планируется использовать альтернативные программы (или синхронизация будет производиться вручную), следует снять флажок “Добавить эту целевую папку к набору репликации” (Add this target to the replication set). Нажимаем ОК, и появляется Мастер настройки репликации (Configure Replication Wizard), который поможет выбрать мастер-реплику и топологию репликации. На первом шаге указываем каталог, который будет использоваться в качестве основного целевого, вся информация из этого каталога затем будет скопирована в другую папку. Последняя должна быть пустой, если в ней есть файлы, они будут скопированы во временный каталог, а затем удалены. Если общий ресурс по каким-либо причинам не подходит для репликации (например, расположен не в разделе с NTFS), он будет отмечен красным крестиком, при попытке перейти к следующему шагу мастер предложит указать другую ссылку или закончить работу.

Нажатием кнопки “Промежуточное хранение ” (Staging Folder ) можно изменить расположение каталога, который будет использоваться для временного хранения реплицируемых данных. По умолчанию этот каталог размещается в разделе, отличном от того, на котором находится общий ресурс, связанный с DFS . Далее мастер предложит выбрать топологию репликации. Необходимо будет указать один из следующих вариантов:

  • Кольцо (Ring) - все реплики обмениваются информацией с двумя соседними;
  • Звезда (Hub and spoke) - указывается основная ссылка, с которой и будут обмениваться информацией все остальные реплики;
  • Полная сетка (Mesh) - все реплики обмениваются друг с другом;
  • Особая (Custom) - позднее администратор самостоятельно настроит репликацию для каждой пары серверов.

Кольцевая топология установлена по умолчанию и подходит для большинства случаев. В идеале выбранная топология репликации должна соответствовать схеме сети. Например, если есть центральный офис, где располагаются основные ресурсы, а многочисленные филиалы подключаются к ним по мере необходимости, то в этом случае больше подойдет схема Звезда. Если ничего из предустановок не подходит, следует обратиться к пункту Особая.

После создания реплики для ссылки соответствующий ей значок в окне оснастки изменится. В контекстном меню также появятся два новых пункта: Отобразить/Скрыть статус репликации и Остановить репликацию. В поле статуса репликации может быть один из трех результатов. Если процесс репликации завершен нормально, на значках будут зеленые флажки. Красный крестик на значке реплики укажет, что она в данный момент недоступна, в поле Состояние подпись изменится на Автономный. Если в проверяемой ссылке недоступны лишь некоторые реплики, в значке появится желтый восклицательный знак.

Перед удалением одной из альтернативных реплик сначала следует запретить репликацию. При возобновлении репликации тебя встретит тот же мастер. Если сервер является контроллером домена, вместе со всеми данными DFS будет реплицировать и содержимое тома SYSVOL. Поэтому следует помнить, что до тех пор, пока не произойдет полная репликация всех реплик, начинать любые изменения в конфигурации DFS очень рискованно, это может нарушить работоспособность всего домена.

Если выбранный вариант топологии репликации по каким-либо причинам не подошел, топологию репликации впоследствии можно легко изменить, выбрав окно свойств соответствующей ссылки и перейдя на вкладку Репликация. Здесь находятся еще несколько полезных настроек. По умолчанию репликация выполняется постоянно, нажав кнопку Расписание, можно изменить расписание репликаций для всех подключений. Чуть ниже указываются фильтры для файлов и подпапки, которые не будут реплицироваться. Для этого нажимаем Изменить и вводим шаблоны файлов или подкаталогов.

Для принудительной репликации информации, хранящейся на определенном сервере, можно воспользоваться утилитой NtfrsUtl.exe, которая входит в состав пакета Support Tools . Команда проста: «ntfrsutl poll /now server.com». Чтобы увидеть установленные временные интервалы, через которые производится репликация, следует ввести «ntfrsutl poll». Все установки доступны по команде «ntfrsutl sets server.com».

В окне свойств общего ресурса, представленного в службе DFS , появится еще одна вкладка – DFS . Открыв ее, пользователь может просмотреть, с какими общими папками сопоставлена эта ссылка, проверить состояние реплики, выбрать активную реплику, к которой он будет перенаправляться в первую очередь.

Администратору для контроля следует почаще заглядывать в журнал “Администрирование – Просмотр событий – Служба репликации файлов”, где можно найти информацию обо всех событиях, происходящих со службой FRS.