Windows 10 storage spaces: Как использовать дисковые пространства Windows 10 – Windows 10 storage spaces — A comprehensive guide

Содержание

Как использовать дисковые пространства Windows 10


&nbsp windows | для начинающих

Использование дисковых пространств Windows 10В Windows 10 (и 8) присутствует встроенная функция «Дисковые пространства», позволяющая создавать зеркальную копию данных на нескольких физических жестких дисках или же использовать несколько дисков как один диск, т.е. создавать своего рода программные RAID массивы.

В этой инструкции — подробно о том, как можно настроить дисковые пространства, какие варианты доступны и что необходимо для их использования.

Для создания дисковых пространств необходимо, чтобы на компьютере было установлено более одного физического жесткого диска или SSD, при этом допустимо использование внешних USB накопителей (одинаковый размер накопителей не обязателен).

Доступны следующие типы дисковых пространств

  • Простое — несколько дисков используются как один диск, какая-либо защита от потери информации не предусмотрена.
  • Двухстороннее зеркало — данные дублируются на двух дисках, при этом при выходе из строя одного из дисков, данные остаются доступными.
  • Трехстороннее зеркало — для использования требуется не менее пяти физических дисков, данные сохраняются в случае выхода из строя двух дисков.
  • «Четность» — создается дисковое пространство с проверкой четности (сохраняются контрольные данные, которые позволяют не потерять данные при сбое одного из дисков, при этом общее доступное место в пространстве больше, чем при использовании зеркал), требуется не менее 3-х дисков.

Создание дискового пространства

Важно: все данные с дисков, используемых для создания дискового пространства, будут удалены в процессе.

Создать дисковые пространства в Windows 10 можно с помощью соответствующего пункта в панели управления.

  1. Откройте панель управления (можно начать вводить «Панель управления» в поиск или нажать клавиши Win+R и ввести control).
  2. Переключите панель управления в вид «Значки» и откройте пункт «Дисковые пространства». Дисковые пространства в панели управления Windows 10
  3. Нажмите «Создать новый пул и дисковое пространство». Создание дискового пространства в Windows 10
  4. При наличии не отформатированных дисков, вы увидите их в списке, как на скриншоте (отметьте те диски, которые требуется использовать в дисковом пространстве). В случае, если диски уже отформатированы, вы увидите предупреждение о том, что данные на них будут потеряны. Точно так же отметьте те диски, которые требуется использовать для создания дискового пространства. Нажмите кнопку «Создать пул». Выбрать накопители для дискового пространства
  5. На следующем этапе вы можете выбрать букву диска, под которой в Windows 10 будет смонтировано дисковое пространство, файловую систему (если использовать файловую систему REFS, то получим автоматическую коррекцию ошибок и более надежное хранилище), тип дискового пространства (в поле «Тип устойчивости». При выборе каждого типа, в поле «Размер» вы можете увидеть, какой размер пространства будет доступен для записи (место на дисках, которое будет зарезервировано для копий данных и контрольных данных не будет доступно для записи). Нажмите кнопку «Создать дисковое пространство» и дождитесь завершения процесса. Выбор типа дискового пространства
  6. По завершении процесса, вы вернетесь на страницу управления дисковыми пространствами в панели управления. В дальнейшем здесь же можно добавить диски к дисковому пространству или удалить их из него. Параметры дисковых пространств Windows 10

В проводнике Windows 10 созданное дисковое пространство будет отображаться как обычный диск компьютера или ноутбука, для которого доступны все те же действия, которые доступны для обычного физического диска.

Дисковое пространство в проводнике

При этом, если вы использовали дисковое пространство с типом устойчивости «Зеркало», при выходе из строя одного из дисков (или двух, в случае «трехстороннего зеркала») или даже при их случайном отключении от компьютера, в проводнике вы все так же будете видеть диск и все данные на нём. Однако, в параметрах дискового пространства появятся предупреждения, как на скриншоте ниже (соответствующее уведомление также появится в центре уведомлений Windows 10).

Ошибка дискового пространства в Windows 10

Если такое произошло, следует выяснить, в чем причина и при необходимости добавить новые диски в дисковое пространство, заменив неисправные.

А вдруг и это будет интересно:

Обзор локальных дисковых пространств | Microsoft Docs



  • Время чтения: 7 мин



В этой статье

Относится к: Windows Server 2019, Windows Server 2016Applies to: Windows Server 2019, Windows Server 2016

Локальные дисковые пространства используют стандартные серверы с локально подключенными дисками для создания программно-определяемого хранилища с высоким уровнем доступности и масштабируемости, причем стоимость такого хранилища значительно ниже стоимости традиционных массивов SAN или NAS.Storage Spaces Direct uses industry-standard servers with local-attached drives to create highly available, highly scalable software-defined storage at a fraction of the cost of traditional SAN or NAS arrays. Ее конвергенция или архитектура с поддержкой технологии Hyper-in значительно упрощает закупку и развертывание, в то же время такие функции, как кэширование, уровни хранилища и очисткиное кодирование, а также новейшие нововведения оборудования, такие как сетевые подключения RDMA и накопители NVMe, доставляют Непревзойденная эффективность и производительность.Its converged or hyper-converged architecture radically simplifies procurement and deployment, while features such as caching, storage tiers, and erasure coding, together with the latest hardware innovations such as RDMA networking and NVMe drives, deliver unrivaled efficiency and performance.

Локальные дисковые пространства входит в сборки Windows Server 2019 Datacenter, Windows Server 2016 Datacenter и Windows Server Insider Preview.Storage Spaces Direct is included in Windows Server 2019 Datacenter, Windows Server 2016 Datacenter, and Windows Server Insider Preview Builds.

Дополнительные сведения о других приложениях дисковых пространств, таких как общие кластеры SAS и изолированные серверы, см. в разделе Обзор дисковых пространств.For other applications of Storage Spaces, such as Shared SAS clusters and stand-alone servers, see Storage Spaces overview. Если вы ищете сведения об использовании дисковых пространств на компьютере с Windows 10, см. раздел дисковые пространства в Windows 10.If you’re looking for info about using Storage Spaces on a Windows 10 PC, see Storage Spaces in Windows 10.

ВидеоVideos

Краткий обзор видео (5 минут)Quick Video Overview (5 minutes)

Локальные дисковые пространства в Microsoft Ignite 2018 (1 час)Storage Spaces Direct at Microsoft Ignite 2018 (1 hour)

Локальные дисковые пространства в Microsoft Ignite 2017 (1 час)Storage Spaces Direct at Microsoft Ignite 2017 (1 hour)

Событие запуска в Microsoft Ignite 2016 (1 час)Launch Event at Microsoft Ignite 2016 (1 hour)

Основные преимуществаKey benefits

Простоты.Simplicity. Создать кластер локальных дисковых пространств на основе стандартных серверов с ОС Windows Server 2016 можно меньше чем за 15 минут.Go from industry-standard servers running Windows Server 2016 to your first Storage Spaces Direct cluster in under 15 minutes. Пользователи System Center могут выполнить развертывание, установив один флажок.For System Center users, deployment is just one checkbox.
Непревзойденная производительность.Unrivaled Performance. Как при использовании только флэш-памяти, так и при использовании гибридных носителей локальные дисковые пространства позволяют обеспечить скорость ввода-вывода более 150 000 операций в секунду в смешанном режиме и более 4000 операций в секунду в произвольном режиме на сервер со стабильно низкой задержкой. Это достигается благодаря архитектуре со встроенной низкоуровневой оболочкой, встроенному кэшу чтения и записи и поддержке передовых дисков NVMe, подключаемых непосредственно к шине PCIe.Whether all-flash or hybrid, Storage Spaces Direct easily exceeds 150,000 mixed 4k random IOPS per server with consistent, low latency thanks to its hypervisor-embedded architecture, its built-in read/write cache, and support for cutting-edge NVMe drives mounted directly on the PCIe bus.
Отказоустойчивость.Fault Tolerance. Встроенные средства отказоустойчивости обрабатывают сбои дисков, серверов или компонентов, обеспечивая непрерывную доступность.Built-in resiliency handles drive, server, or component failures with continuous availability. В более масштабных развертываниях можно также настроить отказоустойчивость шасси и стоек.Larger deployments can also be configured for chassis and rack fault tolerance. При сбое оборудования просто отключите его: программное обеспечение восстановит работоспособность самостоятельно, без выполнения сложных действий по управлению.When hardware fails, just swap it out; the software heals itself, with no complicated management steps.
Эффективность ресурсов.Resource Efficiency. Помехоустойчивое кодирование повышает экономичность хранения в 2,4 раза, а уникальные инновации, такие как локальные коды реконструкции и уровни ReFS в режиме реального времени, позволяют распространить эти преимущества на жесткие диски и смешанные (холодные и горячие) рабочие нагрузки. При этом снижается загрузка ЦП, и ресурсы высвобождаются для наиболее важной задачи — выполнения виртуальных машин.Erasure coding delivers up to 2.4x greater storage efficiency, with unique innovations like Local Reconstruction Codes and ReFS real-time tiers to extend these gains to hard disk drives and mixed hot/cold workloads, all while minimizing CPU consumption to give resources back to where they’re needed most — the VMs.
Управляемость.Manageability. Используйте средства управления качеством обслуживания хранилища, чтобы контролировать работу наиболее загруженных виртуальных машин с помощью минимальных и максимальных значений скорости ввода-вывода на виртуальную машину.Use Storage QoS Controls to keep overly busy VMs in check with minimum and maximum per-VM IOPS limits. Служба работоспособности предоставляет встроенные возможности непрерывного мониторинга и оповещения, а новые интерфейсы API позволяют легко собирать расширенные метрики производительности и емкости в масштабе всего кластера.The Health Service provides continuous built-in monitoring and alerting, and new APIs make it easy to collect rich, cluster-wide performance and capacity metrics.
Масштабируемость.Scalability. Поддерживается масштабирование до 16 серверов и более чем 400 дисков, что позволяет получать объем хранилища в 1 петабайт (1000 терабайт) на кластер.Go up to 16 servers and over 400 drives, for up to 1 petabyte (1,000 terabytes) of storage per cluster. Чтобы осуществить масштабирование, просто добавьте диски или серверы. Локальные дисковые пространства автоматически подключат новые диски и начнут использовать их.To scale out, simply add drives or add more servers; Storage Spaces Direct will automatically onboard new drives and begin using them. Эффективность и производительность хранилища повышают предсказуемость при масштабировании.Storage efficiency and performance improve predictably at scale.

Варианты развертыванияDeployment options

Локальные дисковые пространства предусматривают два разных варианта развертывания:Storage Spaces Direct was designed for two distinct deployment options:

конвергентное;Converged

Хранение и вычисление в отдельных кластерах.Storage and compute in separate clusters. При конвергентном развертывании, также известном как дезагрегированное, масштабируемый файловый сервер (SoFS) размещается поверх локальных дисковых пространств для предоставления подключенного к сети хранилища посредством общих папок SMB3.The converged deployment option, also known as ‘disaggregated’, layers a Scale-out File Server (SoFS) atop Storage Spaces Direct to provide network-attached storage over SMB3 file shares. Это позволяет масштабировать вычислительные ресурсы и рабочие нагрузки независимо от кластера хранилища, особенно в масштабных развертываниях, например Hyper-V IaaS (инфраструктура как услуга), для поставщиков услуг и крупных предприятий.This allows for scaling compute/workload independently from the storage cluster, essential for larger-scale deployments such as Hyper-V IaaS (Infrastructure as a Service) for service providers and enterprises.

ГиперконвергентныеHyper-Converged

Один кластер для вычислений и хранения.One cluster for compute and storage. При гиперконвергентном развертывании виртуальные машины Hyper-V или базы данных SQL Server работают непосредственно на серверах, предоставляющих хранилище, и сохраняют файлы в локальных томах.The hyper-converged deployment option runs Hyper-V virtual machines or SQL Server databases directly on the servers providing the storage, storing their files on the local volumes. Это устраняет необходимость в настройке доступа к файловым серверам и разрешений. Кроме того, снижается стоимость оборудования при развертывании на малых и средних предприятиях, а также в удаленных офисах и филиалах.This eliminates the need to configure file server access and permissions, and reduces hardware costs for small-to-medium business or remote office/branch office deployments. См. раздел Deploy Локальные дисковые пространства.See Deploy Storage Spaces Direct.

Принцип работыHow it works

Локальные дисковые пространства являются развитием дисковых пространств, впервые представленных в Windows Server 2012.Storage Spaces Direct is the evolution of Storage Spaces, first introduced in Windows Server 2012. В них используется множество существующих возможностей Windows Server, таких как отказоустойчивая кластеризация, файловая система CSV, протокол SMB3 и, конечно, дисковые пространства.It leverages many of the features you know today in Windows Server, such as Failover Clustering, the Cluster Shared Volume (CSV) file system, Server Message Block (SMB) 3, and of course Storage Spaces. В них также были реализованы новые технологии, в первую очередь шина Software Storage Bus.It also introduces new technology, most notably the Software Storage Bus.

Ниже представлен обзор стека локальных дисковых пространств.Here’s an overview of the Storage Spaces Direct stack:

Сетевое оборудование.Networking Hardware. Для обмена данными между серверами локальные дисковые пространства используют протокол SMB3, включая SMB Direct и SMB Multichannel, работающий через Ethernet.Storage Spaces Direct uses SMB3, including SMB Direct and SMB Multichannel, over Ethernet to communicate between servers. Мы настоятельно рекомендуем использовать Ethernet со скоростью передачи данных более 10 Гбит/с и удаленным доступом к памяти (RDMA) — iWARP или RoCE.We strongly recommend 10+ GbE with remote-direct memory access (RDMA), either iWARP or RoCE.

Оборудование хранилища.Storage Hardware. От 2 до 16 серверов с локально подключенными дисками SATA, SAS или NVMe.From 2 to 16 servers with local-attached SATA, SAS, or NVMe drives. Каждый сервер должен иметь по крайней мере 2 твердотельных накопителя и 4 дополнительных диска.Each server must have at least 2 solid-state drives, and at least 4 additional drives. Устройства SATA и SAS должны располагаться за адаптером шины (HBA) и расширителем SAS.The SATA and SAS devices should be behind a host-bus adapter (HBA) and SAS expander. Мы настоятельно рекомендуем использовать тщательно спроектированные и протестированные платформы от наших партнеров (ожидаются в ближайшее время).We strongly recommend the meticulously engineered and extensively validated platforms from our partners (coming soon).

Отказоустойчивая кластеризация.Failover Clustering. Встроенная функция кластеризации Windows Server используется для подключения серверов.The built-in clustering feature of Windows Server is used to connect the servers.

Шина хранилища программного обеспечения.Software Storage Bus. Шина Software Storage Bus — это новая технология, представленная в локальных дисковых пространствах.The Software Storage Bus is new in Storage Spaces Direct. Она охватывает весь кластер и создает программно-определяемую структуру хранения, в которой каждый сервер имеет доступ к локальным дискам любого другого сервера.It spans the cluster and establishes a software-defined storage fabric whereby all the servers can see all of each other’s local drives. Это можно рассматривать как замену дорогостоящим и ограниченным в своих возможностях подключениям Fibre Channel или Shared SAS.You can think of it as replacing costly and restrictive Fibre Channel or Shared SAS cabling.

Кэш уровня шины хранилища.Storage Bus Layer Cache. Шина хранилища программного обеспечения динамически привязывает самые быстрые диски (например, SSD) к более медленным дискам (например, к жестким дисковам), чтобы обеспечить кэширование операций чтения и записи на стороне сервера, что ускоряет ввод-вывод и повышает пропускную способность.The Software Storage Bus dynamically binds the fastest drives present (e.g. SSD) to slower drives (e.g. HDDs) to provide server-side read/write caching that accelerates IO and boosts throughput.

Пул носителей.Storage Pool. Набор дисков, которые образуют основу для дисковых пространств, называется пулом носителей.The collection of drives that form the basis of Storage Spaces is called the storage pool. Он создается автоматически, и все подходящие диски обнаруживаются и добавляются в него также автоматически.It is automatically created, and all eligible drives are automatically discovered and added to it. Мы настоятельно рекомендуем использовать один пул носителей в каждом кластере с параметрами по умолчанию.We strongly recommend you use one pool per cluster, with the default settings. Прочитайте раздел Глубокое погружение в пул носителей, чтобы узнать больше.Read our Deep Dive into the Storage Pool to learn more.

Дисковые пространства.Storage Spaces. Дисковые пространства обеспечивают отказоустойчивость виртуальных накопителей с помощью зеркалирования, помехоустойчивого кодирования или обеих этих технологий.Storage Spaces provides fault tolerance to virtual «disks» using mirroring, erasure coding, or both. Их можно представить как распределенный программно-определяемый массив RAID на основе дисков в пуле.You can think of it as distributed, software-defined RAID using the drives in the pool. В локальных дисковых пространствах виртуальные диски обычно устойчивы к одновременному сбою двух дисков или серверов (то есть применяется трехстороннее зеркалирование, при котором каждая копия данных размещается на отдельном сервере), хотя также доступна отказоустойчивость на уровне шасси или стоек.In Storage Spaces Direct, these virtual disks typically have resiliency to two simultaneous drive or server failures (e.g. 3-way mirroring, with each data copy in a different server) though chassis and rack fault tolerance is also available.

Устойчивая файловая система (ReFS).Resilient File System (ReFS). ReFS — это файловая система с превосходными возможностями, предназначенная специально для виртуализации.ReFS is the premier filesystem purpose-built for virtualization. Она позволяет существенно ускорить операции с файлами VHDX, такие как создание, расширение и объединение контрольных точек, а также имеет встроенные средства проверки контрольной суммы для обнаружения и исправления ошибок на уровне отдельных битов.It includes dramatic accelerations for .vhdx file operations such as creation, expansion, and checkpoint merging, and built-in checksums to detect and correct bit errors. В ней также реализовано переключение уровней в режиме реального времени, позволяющее переносить данные между «активными» и «пассивными» уровнями хранения в режиме реального времени в соответствии с интенсивностью использования.It also introduces real-time tiers that rotate data between so-called «hot» and «cold» storage tiers in real-time based on usage.

Общие тома кластера.Cluster Shared Volumes. Файловая система CSV объединяет все тома ReFS в единое пространство имен, доступное с любого сервера, так что для каждого сервера все тома представляются как локально подключенные.The CSV file system unifies all the ReFS volumes into a single namespace accessible through any server, so that to each server, every volume looks and acts like it’s mounted locally.

Масштабируемый файловый сервер.Scale-Out File Server. Этот последний уровень необходим только в конвергентных развертываниях.This final layer is necessary in converged deployments only. Он обеспечивает удаленный доступ к файлам со стороны клиентов, например другого кластера Hyper-V, через сеть по протоколу SMB3. Таким образом локальные дисковые пространства по сути превращаются в подключенное к сети хранилище (NAS).It provides remote file access using the SMB3 access protocol to clients, such as another cluster running Hyper-V, over the network, effectively turning Storage Spaces Direct into network-attached storage (NAS).

Истории клиентовCustomer stories

Существует более 10 000 кластеров по всему миру, где работают Локальные дисковые пространства.There are over 10,000 clusters worldwide running Storage Spaces Direct. Организации всех размеров, от малых предприятий, развертывающих всего два узла, до крупных предприятий и правительственных учреждений, развертывающих сотни узлов, зависят от Локальные дисковые пространства для критически важных приложений и инфраструктуры.Organizations of all sizes, from small businesses deploying just two nodes, to large enterprises and governments deploying hundreds of nodes, depend on Storage Spaces Direct for their critical applications and infrastructure.

Посетите Microsoft.com/HCI , чтобы прочитать свои истории:Visit Microsoft.com/HCI to read their stories:

Для управления и (или) мониторинга Локальные дисковые пространства можно использовать следующие средства.The following tools can be used to manage and/or monitor Storage Spaces Direct:

Начало работыGet started

Попробуйте локальные дисковые пространства в Microsoft Azure или скачайте ознакомительную версию Windows Server с лицензией на 180 дней.Try Storage Spaces Direct in Microsoft Azure, or download a 180-day-licensed evaluation copy of Windows Server from Windows Server Evaluations.

См. такжеSee also

Создание Clustered Storage Spaces в Windows Server 2012 / Microsoft corporate blog / Habr

Доброго времени суток!

Сегодня хотелось бы немного поговорить о новой фиче в Windows Server 2012 — Storage Spaces или Пространства Данных.

По сути это некоторый механизм виртуализации дисковой подсистемы, который абстрагирует нас от физического уровня дисковой подсистемы. Однако, более интересным вариантом реализации данного механизма являются Кластеризованные Пространства Данных (Clustered Storage Spaces). Давайте более подробно рассмотрим способ настройки данного механизма.

Для начала разберемся с теми необходимыми условиями нашего «дано» для осуществления процесса настройки.

Итак:

1) Для создания Storage Spaces в режиме Failover Cluster необходимо минимум 3 физических диска, объем которых не менее 4 Гб для каждого диска.

2) Все диски внутри Storage Pools должны обязательно быть Serial Attached SCSI (SAS) — независимого от того, будут ли эти диски напрямую подключены к системе, есть ли между ОС и дисками какая-либо прослойка в виде RAID-контроллеров и прочих дисковых подсистем или нет.

3) Все физические диски, которые будут состоять в кластеризованном пуле должны успешно пройти тест на валидацию в Failover Clustering. Для того чтобы это сделать необходимо открыть Failover Cluster Manager — cluadmin.msc и выбрать опцию Validate Cluster.

4) Кластеризованное пространство данных должно использовать фиксированный тип предоставления ресурсов (речь идет о типе vhd(x)-диска, который используется для Storage Spaces).

5) Поддерживаются простые (simple) и зеркальные (mirror) типы Storage Spaces — тип с контролем честности (parity) не поддерживается.

6) Диски которые используются в отказоустойчивом пуле должны быть выделенными. Это значит что они не могут быть использованы в составе других пулов, только в одном-единственном.

7) Storage spaces которые отформатированы в формате ReFS не могут быть добавлены в общий том кластера (CSV).

1) Добавьте роль File Services и инструментарий File Services Role Administration Tools на все узлы кластера в Failover Cluster.

2) Откройте консоль управления Failover Cluster Manager (cluadmin.msc).

3) В левой части панели раскройте пункт Storage, правый щелчок по Pools и выберите пункт создания нового пула New Storage Pool. Далее вы увидите мастер настройки New Storage Pool Wizard.

4) Задайте имя для Storage Pool и выберите дисковую подсистему доступную для кластера и нажмите Next.

5) Выберите физические диски в разделе Physical Disks для нового пула (помните про требования!!!) и подтвердите создание пула. Пул будет добавлен в кластер переведен в активное состояние (Online).

6) Следующий шаг — создание виртуального диска или пространства данных, который будет проассоциирован с нашим пулом. В Failover Cluster Manager выберите интересующий storage pool, который будет обеспечивать виртуальный диск. Правый щелчок и пункт New Virtual Disk — наш выбор!

7) Далее будет запущен мастер создания виртуального жесткого диска New Virtual Disk Wizard. Выберите сервер и пул для виртуального диска и нажмите Next. Обратите внимание на то, что в списке серверов будет указан узел, который размещает пул.

8) Укажите имя виртуального диска и его описание. Нажмите Next.

9) Выберите тип дисковый подсистемы — Простой (Simple) или Зеркальный (Mirror). Помним, что вариант Четность (Parity) не поддерживается для кластерной реализации.

10) Укажите размер виртуального диска и нажмите Next. После подтверждения, диск будет создан. Если вы не сняли галочку с чек-бокса, то далее будет запущен мастер создания тома (New Volume Wizard).

11) Задайте правильную связку «Сервер-Диск» для вашей конфигурации и нажмите Next.

12) Укажите размер тома и нажмите Next.

13) Также вы можете назначить букву для нового тома — далее нажмите Next.

14) Выберите тип файловой системы (мы помним что для нашей задачи подходит только NTFS) и нажмите Next для подтверждения параметров. Новый том будет создан поверх виртуального диска и предоставлен кластеру во владение.

15) Ну что же, наше кластерное пространство успешно создано! Теперь поверх него можно размещать кластеризованные нагрузки. Для того чтобы просмотреть свойства пула зайдите в Failover Cluster Manager.

Ну и на последок.

Все то же самое, но без GUI)))

1. Создать нового пространства

a. Выбрать физические диски и добавить в пул

$phydisk = Get-PhysicalDisk –CanPool $true | Where BusType -eq «SAS”

b. Получение дисковой подсистемы для пула

$stsubsys = Get-StorageSubsystem

c. Создание нового пула

$pool = New-StoragePool -FriendlyName TestPool -StorageSubsystemFriendlyName $stsubsys.FriendlyName -PhysicalDisks $phydisk -ProvisioningTypeDefault Fixed

d. Добавление диска для горячей замены (Hot Spare)
$hotSpareDisk = Get-PhysicalDisk –CanPool $true |Out-GridView -PassThru

Add-PhysicalDisk -StoragePoolFriendlyName TestPool -PhysicalDisks $hotSpareDisk -Usage HotSpare

2. Создание пространства данных поверх ранее созданного пула

a. $newSpace = New-VirtualDisk –StoragePoolFriendlyName TestPool –FriendlyName space1 -Size (1GB) -ResiliencySettingName Mirror

3. Инициализация, разметка и форматирование ранее созданного пространства данных

a. $spaceDisk = $newSpace | Get-Disk

b. Initialize-Disk -Number $spaceDisk.Number -PartitionStyle GPT

c. $partition = New-Partition -DiskNumber $spaceDisk.Number -DriveLetter $driveletter -size $spaceDisk.LargestFreeExtent

d. Format-Volume -Partition $partition -FileSystem NTFS

4. Добавление пространства данных в кластер

a. $space = Get-VirtualDisk -FriendlyName space1

b. Add-ClusterDisk $space

На этом вроде бы все. Остается добавить, что если вы хотите узнать побольше про новые возможности Windows Server 2012, то мы приглашаем всех на IT Camps, которые будут проходить в Москве. Расписание вы найдетездесь.

И не забывайте про очень полезный ресурс — виртуальную академию Майкрософт

Веселых ИТ-приключений!

С уважением,

Георгий А. Гаджиев

Эксперт по информационной инфраструктуре

Корпорация Майкрософт

Как устроен Storage Spaces

Storage Spaces в Windows Server 2012 R2

Как устроен Storage Spaces

Storage Spaces — технология виртуализации дискового пространства, которая впервые появилась в Microsoft Windows Server 2012. Storage Spaces является дальнейшим развитием механизма управления динамическими дисками в Windows. Основой является широко применяемая в решениях различных вендоров концепция дисковых пулов: отдельные физические диски сервера объединяются в один или несколько пулов, на базе которых создаются тома с различными уровнями производительности и отказоустойчивости. Использование Storage Spaces вместо аппаратного RAID-контроллера имеет ряд преимуществ и недостатков, которые будут подробно рассмотрены ниже.

Термины

  • Storage pool (пул хранения) — набор физических дисков. В одном пуле могут находится диски, отличающиеся по объёму, производительности и интерфейсу подключения.
  • Virtual disk (виртуальный диск) — термин для определения логический том в Storage Spaces. Для создания виртуального диска используется ёмкость выбранного дискового пула. При этом доступны несколько вариантов отказоустойчивости (их можно комбинировать в пределах одного пула), большинство из которых являются аналогами традиционных RAID-массивов различных уровней.
    • Simple (простой) — аналог RAID-0. Поток данных разбивается на страйпы (по умолчанию размером в 256КиБ), которые распределяются по дискам в пуле. Виртуальный диск simple обеспечивает оптимальное использование ёмкости дисков и является самым производительным, но не предполагает никакой отказоустойчивости.
    • Mirror (зеркальный): для каждого страйпа в зеркальном виртуальном диске записывается дополнительно одна (двойное зеркало, 2-way mirror) или две (тройное зеркало, 3-way mirror) копии. Аналогом в плане использования ёмкости дисков для двойного зеркала является RAID-10 (или 1E для нечётного числа дисков). Зеркальный ВД защищён от потери одного или двух дисков соответственно.
    • Parity (виртуальный диск с контролем чётности): запись страйпов на диски чередуется с записью контрольной суммы. В Windows Server 2012 R2 появились диски с двойной чётностью (dual parity), в которых дополнительно пишется вторая контрольная сумма. Как и аналогичные RAID-5 и RAID-6 ВД с контролем чётности допускают потерю одного или двух дисков соответственно и обеспечивают минимальную потерю дискового пространства (-1 или -2 диска соответственно). Традиционным недостатком любых реализаций томов с контрольными суммами является низкая производительность на запись из-за необходимости модификации всего полного страйпа вместе с контрольными суммами. Отсутствие фиксированного размещения страйпов в Storage Spaces и RAM-кэша на контроллере (используются обычные HBA) усугубляет данную проблему, сравнение производительности ВД single parity и dual parity с RAID-5 и RAID-6 будет ниже.
  • В Windows Server 2012 R2 появился функционал enclosure awareness: при размещении страйпов учитывается размещение дисков по различным дисковым полкам (SAS JBOD’ам) для получения отказоустойчивости на уровне дисковых полок. Например, ВД с двойным зеркалированием (2-way mirror), размещенный на трёх дисковых полках, допускает потерю одной дисковой полки целиком.

  • Параллельность распределения страйпов в виртуальном диске определяется числом т.н. столбцов (columns). Для получения максимальной производительности число столбцов для виртуальных дисков с уровнем отказоустойчивости simple и parity должно соответствовать количеству физических дисков, но в настройках по умолчанию максимальное число столбцов, например, для simple равно 8. Это связано с особенностями механизма расширения ёмкости пула: для оптимального использования ёмкости число добавляемых дисков должно соответствовать максимальному числу столбцов, которое используется виртуальными дисками, а для зеркальных дисков — числу столбцов * числу копий страйпа (2 для 2-way mirror, 3 для 3-way mirror).

  • Storage tiers (ярусное хранение данных). В Windows Server 2012 R2 появилась поддержка 2-ярусного (SSD и HDD) размещения данных на виртуальных дисках Storage Spaces. Приоретизация доступа к быстрому ярусу из SSD возможна путём управления ёмкостью (при создании ВД указываются комбинация объёмов SSD и HDD ярусов) либо на файловом уровне: необходимый файл можно привязать к SSD-ярусу для обеспечения гарантированной производительнности.

  • Write-back cache (кэш на запись). Для компенсации низкой производительности на случайную запись небольшая часть SSD в пуле используется для кэширования записи. При этом оставшаяся часть ёмкости SSD может быть использована для ярусного хранения.

Ограничения


Количество дисков и ёмкость:

  • До 240 дисков одном пуле (в Windows Server 2012R2, ранее — до 160-ти), но пулов может быть несколько.
  • До 80-ти дисков в кластеризованном пуле, до 4-х пулов на кластер.
  • До 64-х виртуальных дисков в одном пуле.
  • Общая ёмкость пула — до 480ТиБ.

Столбцы и количество дисков в ВД:







Тип ВД Минимальное число столбцов Соотношение столбцы/диски Минимальное число дисков Максимальное число столбцов
Simple (простой) 1 1:1 1 -
Two-way mirror (двойное зеркало) 1 1:2 2 -
Three-way mirror (тройное зеркало) 1 1:3 5 -
Single parity (одиночная чётность) 3 1:1 3 8
Dual parity (двойная чётность) 7 1:1 7 17


Прочее

  • Виртуальный диск Storage Spaces не может использоваться в качестве загрузочного.
  • Для Storage Spaces можно использовать только диски с интерфейсами SAS, SATA и USB. Тома, презентуемые RAID-контроллерами; тома iSCSI, FC и прочие не поддерживаются.


Требования при использовании в кластере

  • Нельзя использовать «тонкие» диски, допускается только фиксированное выделение ёмкости (fixed provisioning).
  • Минимальное количество дисков для двойного зеркала — 3, для тройного зеркала — 5.
  • В кластере можно использовать ВД с Parity, но только начиная с Windows Storage Server 2012 R2
  • Используемые диски — только SAS с поддержкой SPC (SCSI persistent reservation). Многие ранние SAS-диски не поддердивают SPC. Аналогичное требование существует и для LSI Syncro CS.

Storage Spaces в кластерах


Одна из самых востребованных возможностей Storage Spaces — использование в failover-кластере Windows. Архитектура решения предельно проста: требуются диски SAS (см. дополнительные требования к дискам и организации томов), SAS JBOD (дисковая полка) с двумя SAS-экспандерами и минимум двумя разъемами для подключения к каждому из экспандеров (для двухузлового кластера). На серверах в качестве контроллеров используются обычные SAS HBA. Мы рекомендуем LSI (любые SAS2 и SAS3 HBA с внешними портами, например LSI 9207-8e), но можно использовать и Adaptec серий 6H и 7H.

Минимальной конфигурация выглядит так: два сервера, в каждом из них двухпортовый SAS HBA с подключением к 2-экспандерному SAS JBOD’у на базе корпуса Supermicro и SAS диски.


Для использования в качестве SAS JBOD’а можно использовать любой корпус Supermicro с двумя экспандерами (E26 или E2C в наименовании для SAS2 и SAS3 соответственно). Каждый экспандер в корпусах Supermicro имеет минимум два разъема x4 SAS (SFF-8087 или SFF-8643), которые можно использовать в качестве входов. При наличии третьего разъема его можно использовать для каскадирования (подключения дополнительных дисковых полок) или для построения топологии с тремя узлами в кластере.


Существуют варианты в одном корпусе, т.н. Cluster-in-a-box (CiB): готовые комплекты SSG-6037B-CIB032 и SSG-2027B-CIB020H на базе Supermicro Storage Bridge Bay с предустановленным Windows Storage Server 2012 R2 Standard, которые отлично подходят для построения отказоустойчивых файловых и/или iSCSI серверов:

Производительность


Решение на базе Storage Spaces может масштабироваться до более чем миллиона IOPS при использовании SSD и зеркальных томов. Но производительность на запись в Parity и Dual Parity по-прежнему оставляет желать лучшего, и такие конфигурации без write-back кэша на SSD подходят лишь для узкого круга задач с преимущественной нагрузкой на чтение.

Всестороннее исследование производительности Storage Spaces в разных конфигурациях было проведено компанией Fujitsu. В нашей тестовой лаборатории мы повторили некоторые из этих тестов, дополнив измерение IOPS и пропускной способности значениями средней и максимальной задержек.

Условия тестирования

  • Два процессора E5640
  • 8GB RAM
  • Системная плата Supermicro X8DTL-iF
  • Контроллер Adaptec 6805 (тесты с аппаратным RAID), кэш на чтение включен, кэш на запись включен
  • Контроллер LSI 9211-8i (тесты со Storage Spaces, прошивка P19 IT
  • Диски HGST HUA723030ALA640 (3ТБ 7200об/мин SATA3): 12шт для тестов RAID-10 vs Storage Spaces 2-way mirror и 13шт для тестов RAID-6 vs Storage Spaces dual parity
  • 2шт SSD Intel 710 100ГБ для тестов с tiering’ом и write-back кэшом
  • Microsoft Windows Server 2012 R2 Standard
  • Для генерации нагрузки применялся FIO версии 2.1.12

Для тестирования использовался скрипт, реализующий серию 60-секундных раундов нагрузки с различными шаблонами и варьированием глубины очереди. Для определения окна установившегося состояния используется та же методика, что и в нашем пакете для тестирования SSD, разработанного в соответсвии со спецификацией SNIA Solid State Storage Performance Test Specification Enterprise v1.1. Для всех замеров использовался тестовый файл объёмом 100ГиБ, кроме тестов с ярусным хранением, где использовался файл объёмом 32ГиБ.


Для наглядности использовались шаблоны аналогичные использованным в тестах от Fujitsu:







Шаблон Доступ Чтение Запись Размер блока, КиБ
File copy случайный 50% 50% 64
File server случайный 67% 33% 64
Database случайный 67% 33% 8
Streaming последовательный 100% 0% 64
Restore последовательный 0% 100% 64

Результаты

RAID-10 vs Storage Spaces 2-way mirror

Сравнивались: RAID-10 из 12-ти дисков на контроллере Adaptec 6805, 2-way mirror из 12-ти дисков (6 столбцов), 2-way mirror из 12-ти дисков с 2ГиБ write-back кэшом на двух SSD Intel 710 и ярусным хранением — SSD-tier’ом из тех же объёмом в 40ГБ (40ГБ SSD + 200ГБ HDD).


Шаблоны Database (IOPS), File copy, File Server (пропускная способность). Для шаблона Database используется логарифмическая шкала. По графикам видно, что 2-way mirror заметно уступает в производительности традиционному аппаратному RAID-10: в два с лишним раза на шаблонах Database и File copy, примерно в 1,5 раза на шаблоне File Server. Выравнивание результатов с ростом глубины очереди больше 16-ти нельзя рассматривать с точки зрения практического использования из-за неприемлемого роста задержек (графики ниже). Серьезный рост производительности обеспечивает использование SSD в качесте кэша на запись и быстрого яруса. Всего пара даже устаревших на сегодняшний день Intel 710 поднимает производительность на случайном доступе малыми блоками на порядок. Есть смысл использовать такое сочетание не только для OLTP, но и для нагруженных файловых серверов.


Шаблоны Database, File copy, File Server: средняя задержка. Никаких сюрпризов: Storage Spaces проигрывает, но естественно вырывается вперёд при добавлении SSD.

Шаблоны Database, File copy, File Server: максимальная задержка. При более высокой средней задержке Storage Spaces демонстрирует более стабильные значения — максимумы при небольшой глубине очереди меньше на шаблонах Database и File copy.

Шаблоны Streaming, Restore: пропускная способность. Зеркальный Storage Spaces не уступает аппаратному RAID при последовательном чтении, но существенно уступает при последовательной записи (шаблон Restore). Рост при запредельных значениях глубины очереди (>64) имеет значение только в синтетических тестах из-за большого значения задержки. Использование SSD в данном случае оказывается бесполезным из-за последовательного доступа и соотношения числа HDD и SSD. Обычные HDD, тем более в количестве 12-ти штук, отлично справляются с последовательной нагрузкой и оказываются существенно быстрее пары SSD.

Шаблоны Streaming, Restore: средняя задержка.

Шаблоны Streaming, Restore: максимальная задержка. Появляется хоть какая-то польза от SSD в виде стабилизации значения задержки..

RAID-6 vs Storage Spaces dual parity

Сравнивались: RAID-6 из 13-ти дисков на контроллере Adaptec 6805 и Dual Parity из 13-ти дисков (13 столбцов). К сожалению, у нас не оказалось минимально требуемого для использования в таком пуле количества SSD аналогичных использованным в первой серии тестов — для Dual Parity их нужно минимум три. Но соответствующее сравнение производительности с SSD tier’ом и кэшированием записи есть в вышеупомянутом исследовании Fujitsu.


Шаблоны Database (IOPS), File copy, File Server (пропускная способность). Storage Spaces с Dual Parity существенно отстаёт от аппаратного RAID во всех сценариях со случайным доступом. Это не удивительно с учётом того, что в распоряжении Adaptec 6805 есть 512МБ RAM-кэша, что позволяет существенно оптимизировать неудобный для RAID-6 доступ на случайную запись. Среди тестов, проведённых Fujitsu, есть вариант «RAID-6 8xHDD против Dual Parity 8xHDD + 1ГБ WB кэша на 3xSSD» — на всех трёх шаблонах производительность при добавлении WB-кэша на SSD не уступает аппаратному RAID, причём без использования ярусного хранения.


Шаблоны Database, File copy, File Server: средняя задержка.

Шаблоны Database, File copy, File Server: максимальная задержка. Ситуация аналогична предыдущей серии тестов с зеркальным Storage Spaces. При более высокой средней задержке Storage Spaces демонстрирует более стабильные значения — максимумы при небольшой глубине очереди меньше на шаблонах Database и File copy.

Шаблоны Streaming, Restore: пропускная способность. Dual Parity хорошо справляется с чтением, но с последовательной записью наблюдается давно известная катастрофическая ситуация с отставанием более чем на порядок. Использование даже большого по объёму write-back кэша (можно выделить диски целиком, присвоив диску Usage=Journal) на нескольких SSD может на какое-то время компенсировать относительно кратковременные нагрузки на запись, но при непрерывной записи (например, при использовании в системе видеонаблюдения) кэш рано или поздно будет заполнен.

Шаблоны Streaming, Restore: средняя задержка. Для шаблона Restore используется логарифмическая шкала.

Шаблоны Streaming, Restore: максимальная задержка (логарифмическая шкала).

Преимущества и недостатки Storage Spaces

Преимущества

  • Снижение затрат на оборудование.

    Для простых проектов с одиночным сервером: SAS HBA или чипсетный контроллер вместо аппаратного RAID-контроллера; возможность использовать недорогие диски SATA, формально не совместимые с аппаратными RAID (например, WD Red) вместо дисков nearline класса.


    Для проектов с одиночной неотказоустойчивой СХД и большими требованиями к плотности размщениния дисков можно использовать такие платформы (72 диска в 4U, до 432ТБ сырой ёмкости при использовании 6ТБ дисков):



    Для кластерных решений: простые дисковые полки (SAS JBOD’ы) вместо дорогостоящих СХД.

  • Высокая производительность. Решение на базе Storage Spaces и SSD легко масштабируется по пропускной способности и IOPS путём добавления дисковых полок и HBA вплоть до нескольких миллионов IOPS и десятков ГБ/с. Сравнительно невысокая производительность обычных HDD может быть компенсирована применением ярусного хранения с размещением «горячих» данных на SSD и/или использованием SSD для кэширования операций записи.


    Использование tiering’а (ярусного хранения) в сочетании с кэширование записи на SSD в Storage Spaces в большинстве случаев работает эффективнее, обходится дешевле и имеет большие пределы масштабирования в сравнении с реализацией SSD кэша на аппаратных RAID-контроллерах (например, LSI CacheCade или Adaptec MaxCache).

  • Гибкое использование дискового пространства. В Storage Spaces можно комбинировать на одной дисковой группе (в одном пуле) тома с любым уровнем отказоустойчивости, при добавлении в пул SSD — с любым соотношением ёмкости между HDD- и SSD-ярусами и/или ёмкостью write-back кэша.

    Для всех видов томов, за исключением использования в кластере, томов с ярусным хранением и томов Dual Parity поддерживается Thin Provisiong (тонкое выделение ресурсов) — это позволяет выделять ёмкость только по мере реального использования.

Недостатки

  • Низкая производительность на запись при использовании обычных HDD, особенно в Parity и Dual Parity

    Определенный тип нагрузки на запись (случайный доступ небольшими блоками, сосредоточенный в определённой области) может быть легко компенсирован добавлением SSD в качестве быстрого яруса и кэша на запись. Но продолжительную линейную нагрузку на запись компенсировать не получится, так что рекомендовать использование Storage Spaces, например, для видеонаоблюдения нельзя.

    Для бюджетных кластерных решений под Windows (с похожей архитектурой на базе SAS JBOD) с высокой нагрузкой на запись мы советуем использовать вместо Storage Spaces специальные RAID-контроллеры LSI Syncro CS.

  • Ограниченное масштабирование кластера. Для использования Storage Spaces в кластере необходим совместный доступ к дискам через дисковую полку с двумя SAS-экспандерами (SAS JBOD). SAS JBOD не является отдельной самостоятельной СХД, поэтому кластер с использованием Storage Spaces может состоять максимум из 4-х узлов (необходим специальный SAS JBOD с 4-мя входами на каждый экспандер), а в типовых конфигурациях с SAS JBOD Supermicro — максимом из 3-х узлов (или 2-х при необходимости подключать дополнительные JBOD’ы каскадом).

Советы по оптимальному использованию Storage Spaces

  • При использовании в кластере используйте только SAS HDD и SSD, избегайте использования SATA дисков с дополнительными интерпозерами.
  • При создании виртульных дисков учитывайте число т.н. столбцов. Данный параметр может очень сильно влиять на производительность. Нестандартное число столбцов можно задать только при использовании PowerShell. Использование большего числа столбцов повышает производительность, но накладывает ограничение на добавление дисков в пул.


    Пример (виртуальный диск Dual Parity, 13 столбцов, 1000ГиБ, Fixed Provisioning):



    New-VirtualDisk -StoragePoolFriendlyName Pool1 -FriendlyName VD02 -ResiliencySettingName Parity -NumberOfColumns 13 -PhysicalDiskRedundancy 2 -Size 1000GB -ProvisioningType Fixed

  • Избегайте использования виртуальных дисков Parity и Dual Parity при наличии большой нагрузки на запись и/или случайного доступа малыми блоками.
  • Одним из самых востребованных на сегодня решений является небольшой 2-узловой кластер для Hyper-V. Из-за конкурентного обращения нескольких ВМ достаточно высокий процент нагрузки на дисковую подсистему будет состоять из случайного доступа. При расчёте дисковой подсистемы планируйте использование зеркальных виртуальных дисков (2-way mirror — стандартное двойное зеркалирование, для особых сценариев можно использовать тройное), производительность Parity и Dual Parity будет достаточно только для архивных данных. Планируйте использование минимум двух SSD для tiering’а и кэширования записи.
  • Избегайте добавления дисков с разной производительностью (например, HDD 7200 и 10000 об/мин) в общий пул либо создавайте виртуальные диски только из HDD с одинаковой производительностью, выбирая их вручную в GUI или через параметр -PhysicalDisksToUse при создании через PowerShell. Диски SSD должны быть либо вынесены в отдельный пул, либо использоваться совместно с HDD только в качестве быстрого яруса и/или write-back кэша.

Ссылки

Настройка Storage Spaces Direct (S2D) в Windows Server 2016

Storage Spaces Direct (S2D) – новая технология распределенного хранения данных, представленная в Windows Server 2016. Благодаря использованию Storage Spaces Direct локальные диски нескольких серверов можно организовать в отказоустойчивое, масштабируемое хранилище, защищенное от выхода из строя как отдельных дисков, так и целых серверов. Цена такого «программного» хранилища получается значительно меньше, чем стоимость организации полноценного SAN или NAS, а за счет простого масштабирования (до 16 серверов и 400 дисков) и возможности использовать различных накопителей (в том числе SSD и NVMe) можно обеспечить значительную производительность.

Что такое Storage Spaces Direct (S2D)

S2D является дальнейшим развитием технологии Storage Spaces и позволяет объединить локальные диски узлов (серверов) кластер Hyper-V в пулы хранения (Storage Pool). На данных пулах можно создать виртуальные тома (диски) и использовать их в качестве общего тома кластера Cluster Shared Volume (CSV) для хранения файлов виртуальных машин Hyper-V и файловых шар SOFS-серверов. При необходимости расширить размер хранилища достаточно добавить в S2D новый сервер или накопитель. По сути, технология Storage Spaces Direct является ответом Microsoft на VMware vSAN.

Требования к Storage Spaces Direct

В S2D поддерживаются следующие типы устройств хранения:

  • Обычные HDD диски (SAS)
  • SATA / SAS SSD диски
  • NVMe (Non-Volatile Memory Express) — SSD диски, подключенные не через классический интерфейс SATA/SAS, а через более скоростную шину PCI Express

В дальнейшем разные типы дисков можно комбинировать в различные массивы (по скорости и емкости), например, логично расположить кэш и транзакционные логи приложений на скоростных NVMe SSD, медленные и недорогие диски лучше использовать для хранения больших файлов, доступ к которым не требует повышенной производительности и т.д.

Для работы S2D нужно организовать отказоустойчивый кластер, к узлам которого выдвигаются следующие требования:

Требования к узлам кластера S2D

  • Редакция Windows Server 2016 — DataCenter
  • На серверах нужно установить следующие компоненты: роли Hyper-V, File Services и фичу Failover ClusteringПримечание. Не забудьте отключить SMB 1: Remove-WindowsFeature –Name FS-SMB1 -Verbose -Restart
  • Как минимум два сервера в кластере (в идеале не менее 4 для обеспечения высокой отказоустойчивости)
  • Наличие дисков. Помимо системного должен иметь как минимум один физический диск на каждом узле. Все диски, которые планируется добавить в хранилище Storage Spaces Direct должны быть не размечены (не должны быть разбиты и не содержать таблицы разделов)

Итак, предполагаем, что у нас уже собран отказоустойчивый кластер из двух серверов с Windows Server 2016 (можно собрать такой кластер даже в рабочей группе).

Примечание. Если в кластере четное число серверов, придется настроить ресурс-свидетель. Если количество узлов нечетное – свидетель не нужен.

Перед тем, как включить Storage Spaces Direct, проверьте, что ваши диски можно объединить в такой пул.

Get-PhysicalDisk –CanPool $True | Sort Model

Get-PhysicalDisk –CanPool $True

Включаем Storage Spaces Direct

Активируем S2D с помощью командлета:

Enable-ClusterStorageSpacesDirect

Командлет отрабатывает довольно долго (около 10 минут), в течении которых будет проанализированы все доступные диски и их производительность, и автоматически создан кластерный пул. Также автоматически создаются два тира: Performance и Capacity с разным типом отказоустойчивости хранения: mirror и parity соответственно.

Всего поддерживаются 3 типа организации отказоустойчивого хранения данных:

  • Mirrored (3) – данные синхронно реплицируются между 3 (или 2 в минимальной конфигурации) узлами. Высокая скорость чтения обеспечивается распределением операции между всеми серверами.
  • Parity (2) – данные с хранением четности распределены между разными дисками. Данные хранятся более эффективно, т.к. не надо как в первом случае хранить несколько копий одних и тех же данных.
  • Tiered (1) – используется комбинация обоих техник.

Включить Storage Spaces Direct с помощью командлета Enable-ClusterStorageSpacesDirect

Примечание 1. В том случае, если при выполнении команды Enable-ClusterS2D появится ошибка «no disks with supported bus types found to be used for S2D», скорее всего тип шины (BusType) ваших дисков – RAID (что с точки зрения S2D – неподдерживаемая конфигурация). Проверим тип шины

Get-Disk | select Number, FriendlyName, OperationalStatus, Size, PartitionStyle, BusType | sort Number | ft -AutoSize
BusType-RaidТак и есть – во всех случаях это RAID. Решение — обновить драйверы/ firmware контроллеров (в случае серверов HP установить последний HPE Support Pack). Проверим тип BusType еще раз (теперь он сменился на SAS).HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Services\arcsas\Parameters - BusType SASКроме того, есть небольшой трюк позволяющий в реестре изменить тип шины на SATA для нужного типа контроллера:HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Services\arcsas\Parameters
«BusType»=dword:0000000b (вместо 00000008)Другие примеры использования командлетов PowerShell для управления локальными дисками приведены в статье Управление дисками и разделами из PowerShell.

Примечание 2. Если в массиве обнаружен диск типа дисков SSD, NVMe, он автоматически используется в качестве диска для хранения кэша. Если таких дисков нет, в процессе создания S2D будут появляться предупреждения. Можно отключить кэш с помощью параметра -CacheState Disabled.

Откроем консоль управления кластером и убедимся, что в разделе Storage новый появился Cluster Pool 1.

Cluster Pool 1

Выбрав пул, можно увидеть из каких дисков он состоит.

диски в пуле

В случае необходимости, имя пула можно изменить:

Set-StoragePool –FriendlyName “Cluster Pool 1” –NewFriendlyName “S2D”

Если нужно создать том из определенных дисков, можно воспользоваться к примеру, такой командой. Сначала выбираем все диски с LUN 3, а затем собираем из них пул.

$HDDs = Get-PhysicalDisk | ? PhysicalLocation -like "*LUN 3"
New-StoragePool -StorageSubSystemFriendlyName *Cluster* -FriendlyName S2DPool -ProvisioningTypeDefault Fixed -PhysicalDisk $HDDs

Вывести список дисков в пуле:

Get-StoragePool -FriendlyName S2D | Get-PhysicalDisk | ft PhysicalLocation

PhysicalLocation - LUN 3

Добавить в пул новый диск:

$HDDs = Get-PhysicalDisk | ? PhysicalLocation -like "*LUN 4"
Add-PhysicalDisk -PhysicalDisks $HDDs -StoragePoolFriendlyName S2D

Диски, помеченные как S2D, в консоли управления дисками более не отображаются, это нормально.

консоль управления дисками

При наличии разнородных накопителей можно использовать тиринг (не обязательно). Тир типа зеркало из SSD дисков создается так:

New-StorageTier -StoragePoolFriendlyName S2D -FriendlyName "Mirror_Tier" -MediaType SSD -ResiliencySettingName Mirror

Тир из обычных HDD с хранением четности:

New-StorageTier -StoragePoolFriendlyName S2D -FriendlyName "Parity_Tier" -MediaType HDD -ResiliencySettingName Parity

Теперь можно создать том CSV (Cluster Shared Volume):

New-Volume –StoragePoolFriendlyName S2D –FriendlyName CSV001 –PhysicalDiskRedudancy 2 -FileSystem CSVFS_ReFS -Size 200GB

Список томов и типом избыточности можно вывести так

Get-VirtualDisk | ft FriendlyName, ResiliencySettingName, PhysicalDiskRedundancy

Get-VirtualDisk

Новый CSV том появится в консоли управления дисками.

CSV том

Данный том можно использовать для размещения виртуальных машин Hyper-V или сетевого хранилища Scale-out File Server.

Итак, при использовании Storage Spaces Direct из нескольких серверов с локальными дисками можно с легкостью создать программное сетевое хранилище данных. За счет технологии S2D обеспечивается как защита от одновременного выхода из строя любых двух дисков или двух серверов (4+ нодовый кластер). Кластер S2D автоматически запускает процесс перераспределения данных между оставшимися устройствами в случае обнаружения неполадок с дисками или серверами. В тестовой среде можно убедится, что при отключении двух любых дисков хранилище продолжает быть доступным, а ВМ, запущенные на нем штатно работают. Процедура замены неисправного диска в хранилище S2D описана в следующей статье.

Требования к оборудованию для локальных дисковых пространств



  • Время чтения: 4 мин



В этой статье

Относится к: Windows Server 2019, Windows Server 2016Applies to: Windows Server 2019, Windows Server 2016

В этом разделе описываются минимальные требования к оборудованию для Локальные дисковые пространства.This topic describes minimum hardware requirements for Storage Spaces Direct.

Для рабочей среды корпорация Майкрософт рекомендует приобрести проверенное оборудование и программное обеспечение от наших партнеров, включая средства и процедуры развертывания.For production, Microsoft recommends purchasing a validated hardware/software solution from our partners, which include deployment tools and procedures. Эти решения разработаны, собраны и проверены в соответствии с эталонной архитектурой для обеспечения совместимости и надежности, что позволяет быстро приступить к работе.These solutions are designed, assembled, and validated against our reference architecture to ensure compatibility and reliability, so you get up and running quickly. Решения для Windows Server 2019 см. на веб-сайте Azure Stack хЦи Solutions.For Windows Server 2019 solutions, visit the Azure Stack HCI solutions website. Для решений Windows Server 2016 ознакомьтесь с дополнительными сведениями по Windows Server Software-Defined.For Windows Server 2016 solutions, learn more at Windows Server Software-Defined.

Базовые требованияBase requirements

Системы, компоненты, устройства и драйверы должны быть сертифицированы для Windows server 2016 в каталоге Windows Server.Systems, components, devices, and drivers must be Windows Server 2016 Certified per the Windows Server Catalog. Кроме того, на серверах, дисках, адаптерах шины и сетевых адаптерах рекомендуется использовать программно-определяемый центр обработки данных (SDDC ) и (или) программно-определяемый центр обработки данных (SDDC) Premium (АКС), как показано на рисунке. см.In addition, we recommend that servers, drives, host bus adapters, and network adapters have the Software-Defined Data Center (SDDC) Standard and/or Software-Defined Data Center (SDDC) Premium additional qualifications (AQs), as pictured below. Существует более 1 000 компонентов с АКС SDDC.There are over 1,000 components with the SDDC AQs.

Полностью настроенный кластер (серверы, сеть и хранилище) должен пройти все проверочные тесты кластера для мастера в Диспетчер отказоустойчивости кластеров или с помощью командлета Test-Cluster в PowerShell.The fully configured cluster (servers, networking, and storage) must pass all cluster validation tests per the wizard in Failover Cluster Manager or with the Test-Cluster cmdlet in PowerShell.

Кроме того, применяются следующие требования.In addition, the following requirements apply:

СерверыServers

  • Минимум два сервера, максимум 16 серверов.Minimum of 2 servers, maximum of 16 servers
  • Рекомендуется, чтобы все серверы были одним и тем же производителем и модельюRecommended that all servers be the same manufacturer and model

ЦПCPU

  • Процессор, совместимый с Intel Нехалем или более поздней версии; ниIntel Nehalem or later compatible processor; or
  • Процессор AMD ЕПИК или более поздней версииAMD EPYC or later compatible processor

ПамятьMemory

  • Память для Windows Server, виртуальных машин и других приложений или рабочих нагрузок; плюсMemory for Windows Server, VMs, and other apps or workloads; plus
  • 4 ГБ ОЗУ на терабайт (ТБ) емкости кэша на каждом сервере для метаданных Локальные дисковые пространства4 GB of RAM per terabyte (TB) of cache drive capacity on each server, for Storage Spaces Direct metadata

файлеBoot

  • Любое загрузочное устройство, поддерживаемое Windows Server, которое теперь включает сатадомAny boot device supported by Windows Server, which now includes SATADOM
  • Зеркальное отображение RAID 1 не требуется, но поддерживается для загрузкиRAID 1 mirror is not required, but is supported for boot
  • Рекомендуемое: 200 ГБ, минимальный размерRecommended: 200 GB minimum size

СетьNetworking

Для Локальные дисковые пространства требуется надежная сеть с высокой пропускной способностью и низкой задержкой между каждым узлом.Storage Spaces Direct requires a reliable high bandwidth, low latency network connection between each node.

Минимальное количество соединений для узла малого масштаба 2-3Minimum interconnect for small scale 2-3 node

  • 10 Гбит/с сетевая карта (NIC) или более мощный10 Gbps network interface card (NIC), or faster
  • Два или более сетевых подключения для каждого узла, Рекомендуемые для избыточности и производительности.Two or more network connections from each node recommended for redundancy and performance

Рекомендуемое соединение для высокопроизводительных, масштабируемых или развертываний 4 +Recommended interconnect for high performance, at scale, or deployments of 4+

  • Сетевые карты, поддерживающие удаленный доступ к памяти (RDMA), iWARP (рекомендуется) или РоцеNICs that are remote-direct memory access (RDMA) capable, iWARP (recommended) or RoCE
  • Два или более сетевых подключения для каждого узла, Рекомендуемые для избыточности и производительности.Two or more network connections from each node recommended for redundancy and performance
  • 25 Гбит/с, сетевой адаптер или более мощный25 Gbps NIC or faster

Взаимосвязи узлов с переключением и с переключениемSwitched or switchless node interconnects

  • Переключить Сетевые коммутаторы должны быть правильно настроены для работы с пропускной способностью и типом сети.Switched: Network switches must be properly configured to handle the bandwidth and networking type. Если используется RDMA, который реализует протокол Роце, сетевое устройство и Конфигурация коммутатора еще более важны.If using RDMA that implements the RoCE protocol, network device and switch configuration is even more important.
  • Не переключать: Узлы можно подключать с помощью прямых подключений, избегая использования коммутатора.Switchless: Nodes can be interconnected using direct connections, avoiding using a switch. Необходимо, чтобы каждый узел имел прямое соединение со всеми остальными узлами кластера.It is required that every node have a direct connection with every other node of the cluster.

НакопителиDrives

Локальные дисковые пространства работает с прямым подключением дисков SATA, SAS или NVMe, которые физически подключены только к одному серверу.Storage Spaces Direct works with direct-attached SATA, SAS, or NVMe drives that are physically attached to just one server each. Дополнительную информацию о выборе дисков см. в статье Выбор дисков.For more help choosing drives, see the Choosing drives topic.

  • Поддерживаются диски SATA, SAS и NVMe (M. 2, U. 2 и Add-on-Card).SATA, SAS, and NVMe (M.2, U.2, and Add-In-Card) drives are all supported
  • поддерживаются собственные диски 512N, 512e и 4 КБ.512n, 512e, and 4K native drives are all supported
  • Твердотельные накопители должны обеспечивать защиту от потери питанияSolid-state drives must provide power-loss protection
  • Одинаковое число и типы дисков на каждом сервере — см. раздел требования к симметрииSame number and types of drives in every server – see Drive symmetry considerations
  • Размер устройств кэша должен составлять 32 ГБ или больше.Cache devices must be 32 GB or larger
  • При использовании постоянных устройств памяти в качестве устройств кэширования необходимо использовать устройства с устройствами NVMe или SSD (жесткие диски не используются).When using persistent memory devices as cache devices, you must use NVMe or SSD capacity devices (you can’t use HDDs)
  • Драйвер NVMe является поставляемым корпорацией Майкрософт, включенным в Windows.NVMe driver is the Microsoft-provided one included in Windows. (сторнвме. sys)(stornvme.sys)
  • Рекомендуемое: Число дисков емкости является целым числом, кратным числу дисков кэшаRecommended: Number of capacity drives is a whole multiple of the number of cache drives
  • Рекомендуемое: Диски кэша должны иметь высокую ендуранце записи: не менее 3 дисков — операций записи в день (ДВПД) или по крайней мере 4 терабайта (ТБВ) в день — см. раздел Общие сведения о записи диска в день (двпд), терабайты (ТБВ) и Минимальное рекомендуемое значение для Локальные дисковые пространства Recommended: Cache drives should have high write endurance: at least 3 drive-writes-per-day (DWPD) or at least 4 terabytes written (TBW) per day – see Understanding drive writes per day (DWPD), terabytes written (TBW), and the minimum recommended for Storage Spaces Direct

Вот как можно подключить диски для Локальные дисковые пространства:Here’s how drives can be connected for Storage Spaces Direct:

  • Диски SATA с прямым подключениемDirect-attached SATA drives
  • Непосредственно подключенные диски NVMeDirect-attached NVMe drives
  • Узел SAS — адаптер шины (HBA) с дисками SASSAS host-bus adapter (HBA) with SAS drives
  • Узел SAS — адаптер шины (HBA) с дисками SATASAS host-bus adapter (HBA) with SATA drives
  • НЕ ПОДДЕРЖИВАЕТСЯ: Карта RAID-контроллера или хранилище SAN (Fibre Channel, iSCSI, Фкое).NOT SUPPORTED: RAID controller cards or SAN (Fibre Channel, iSCSI, FCoE) storage. Карты адаптера шины (HBA) должны реализовывать простой сквозной режим.Host-bus adapter (HBA) cards must implement simple pass-through mode.

Диски могут быть внутренними для сервера или во внешнем корпусе, подключенном только к одному серверу.Drives can be internal to the server, or in an external enclosure that is connected to just one server. Службы корпуса SCSI (SES) требуются для сопоставления и идентификации слота.SCSI Enclosure Services (SES) is required for slot mapping and identification. Каждый внешний корпус должен представлять уникальный идентификатор (уникальный идентификатор).Each external enclosure must present a unique identifier (Unique ID).

  • Внутренние диски сервераDrives internal to the server
  • Диски во внешнем корпусе («JBOD»), подключенные к одному серверуDrives in an external enclosure («JBOD») connected to one server
  • НЕ ПОДДЕРЖИВАЕТСЯ: Общие корпусы SAS подключены к нескольким серверам или к любой форме многопутевого ввода-вывода (MPIO), где доступ к дискам осуществляется по нескольким путям.NOT SUPPORTED: Shared SAS enclosures connected to multiple servers or any form of multi-path IO (MPIO) where drives are accessible by multiple paths.

Минимальное число дисков (с исключением загрузочного диска)Minimum number of drives (excludes boot drive)

  • При использовании кэш-накопителей их должно быть не меньше двух на сервер.If there are drives used as cache, there must be at least 2 per server
  • Должно быть по крайней мере 4 диска хранения (не кэш-диска) на сервер.There must be at least 4 capacity (non-cache) drives per server
Имеющиеся типы накопителейDrive types present Необходимое минимальное количествоMinimum number required
Вся постоянная память (та же модель)All persistent memory (same model) 4 Постоянная память4 persistent memory
Только накопители NVMe (одной и той же модели)All NVMe (same model) 4 накопителя NVMe4 NVMe
Только твердотельные накопители (SSD) (одной и той же модели)All SSD (same model) 4 накопителя SSD4 SSD
Постоянная память + NVMe или SSDPersistent memory + NVMe or SSD 2 энергоустойчивая память + 4 NVMe или SSD2 persistent memory + 4 NVMe or SSD
NVMe + SSDNVMe + SSD 2 NVMe + 4 SSD2 NVMe + 4 SSD
NVMe + жесткий дискNVMe + HDD 2 NVMe + 4 жестких диска2 NVMe + 4 HDD
SSD + жесткий дискSSD + HDD 2 SSD + 4 жестких диска2 SSD + 4 HDD
NVMe + SSD + жесткий дискNVMe + SSD + HDD 2 NVMe + 4 других2 NVMe + 4 Others

Максимальная емкостьMaximum capacity

Максимальные значенияMaximums Windows Server 2019Windows Server 2019 Windows Server 2016Windows Server 2016
Необработанная емкость на серверRaw capacity per server 400 ТБ400 TB 100 ТБ100 TB
Емкость пулаPool capacity 4 ПБ (4 000 ТБ)4 PB (4,000 TB) 1 ПБ1 PB

Оставьте комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *