Vmware vim all что это
Какая разница между VMware vSphere, ESXi и vCenter
В этой статье мы не будем углубляться в какие-либо технические подробности. Вместо этого разберёмся в терминологии VMware. Этот небольшой обзор будет полезен тем, кто хочет понять разницу между базовыми продуктами VMware. Почти все знают об ESXi. А как насчёт vSphere и vCenter? Люди часто путают эти термины, но на самом деле ничего сложного в них нет. Давайте разложим всё по полочкам.
Появившись на рынке в 2001 году, гипервизор VMware ESX (ранее известный как VMware ESX Server) положил начало виртуальной революции. Сегодня VMware — ведущий разработчик программных продуктов для виртуализации (сейчас является частью Dell). Каждые полтора года компания выпускает новое программное обеспечение с расширенными функциями, которое совместимо с большим количеством оборудования, в том числе с накопителями SSD NVMe, жёсткими дисками очень большой ёмкости и новейшими центральными процессорами Intel или AMD.
VMware ESXi
ESXi —— это гипервизор; крошечная частичка программного обеспечения, которая устанавливается на физический сервер и позволяет запускать несколько операционных систем на одном хост-компьютере. Эти ОС работают отдельно друг от друга, но могут взаимодействовать с окружающим миром через сеть. При этом остальные компьютеры подключены к локальной сети (Local Area Network, LAN). Операционные системы запускаются на виртуальных машинах (Virtual Machine, VM), у каждой из которых есть своё виртуальное оборудование.
Существуют платная и бесплатная версии VMware ESXi. У нас можно заказать установку бесплатной версии на выделенные серверы. Функционал бесплатной версии несколько ограничен. Она позволяет консолидировать на одном компьютере ограниченное количество ОС, и ею нельзя управлять через центральный сервер управления — vCenter. Тем не менее, Free ESXi (или VMware ESXi Hypervisor) подключается к удалённым хранилищам, где можно создавать, хранить и использовать виртуальные машины. То есть, это удалённое хранилище может быть разделено между несколькими ESXi-хостами, но не между виртуальными машинами. Виртуальные машины «принадлежат» каждому хосту, что делает невозможным центральное управление.
Работа с бесплатной версией ESXi очень проста и состоит из базовых процессов: обучения, тестирования производственных процессов, проверки систем аварийного восстановления, утверждения архитектурных решений. Используя снапшоты, вы можете проверить корректность работы патчей Windows. Как вариант, это может быть полезно, если вы решили клонировать свой производственный сервер с помощью VMware Converter или технологии P2V, и хотите протестировать пакет обновлений Microsoft перед его установкой.
VMware vCenter
VMware vCenter — это платформа централизованного управления виртуальной инфраструктурой VMware. С её помощью вы можете распоряжаться почти всеми процессами всего с одной консоли. Сервер vCenter можно установить на Windows или развернуть как предварительно настроенную виртуальную машину с помощью Photon OS — мощного дистрибутива на базе Linux. Раньше VMware использовали дистрибутив Suse Linux Enterprise Server (SUSE), но недавно перешли на Photon OS.
vCenter Server — это лицензированное программное обеспечение. Приобрести его можно двумя способами:
VMware vSphere
VMware vSphere — это коммерческое название всего пакета продуктов VMware. Как говорилось ранее, разные пакеты ПО стоят разных денег. Самые дешёвые — базовые пакеты vSphere essentials или Essentials Plus. Есть ли между ними разница? Да, но она состоит в количестве доступных функций, а не в самом программном наполнении.
В зависимости от типа лицензии, вы получаете доступ к определённому количеству функций, управлять которыми можно через vSphere Web client. Существует также программа vSphere HTML 5 client, но пока что она не пригодна для использования. Компания продолжает её разработку.
В пакете Essentials нет функции High Availability (автоматический перезапуск ВМ), vMotion, ПО для резервного копирования (VDP) и возможности использовать хранилище VSAN.
Пакет Essentials подходит для маленьких компаний, которым не нужно постоянно быть онлайн. С другой стороны, возможность переносить свои виртуальные машины на другой хост и выполнять техническое обслуживание или обновление хоста, оставаясь в сети, даёт вам реальное преимущество. Всё это можно сделать в течение рабочего дня, не перебивая работу пользователей.
Кроме того, в случае непредвиденного аппаратного сбоя, vSphere High Availability (HA) автоматически перезапустит виртуальные машины, которые перестали работать вместе с проблемным хостом. Эти виртуальные машины автоматически перезапускаются на других хостах из кластера VMware. Системе нужно немного времени, чтобы определить, какой компьютер дал сбой и какие хосты могут временно взять на себя его виртуальные машины. У этих хостов должно быть достаточно памяти и мощности ЦП, чтобы выдержать дополнительную нагрузку. Как только система заканчивает анализ, ВМ перезапускаются. Весь процесс автоматизирован и не требует вмешательства администратора.
Подведём итог
Как видите, терминологию VMware понять довольно просто, как и разницу между ESXi, vSphere и vCenter. Система лицензирования также ясна. Сам по себе гипервизор бесплатный, но его функционал ограничен, вследствие чего такое ПО не застраховано от потери данных. Поэтому ESXi предназначен для использования только в тестовых средах.
Русские Блоги
Советы по использованию терминала оболочки в VMware Workstation 10 и Ubuntu (обновление)
1. Советы по использованию VMware Workstation 10:
2. Если установленная виртуальная машина открыта, интерфейс будет таким:
Это твое Интерфейс виртуальной машины очень маленький, с черными ящиками с обеих сторон. , Затем вам нужно настроить размер интерфейса виртуальной машины.
Конкретный метод выглядит следующим образом:
Он станет очень подходящим, и на него не будет так навязчиво смотреть.
Это происходит после щелчка, то есть окно рабочего стола Windows также становится интерфейсом виртуальной машины:
4. Заменить фон рабочего стола виртуальной машины. Щелкните правой кнопкой мыши пустую таблицу поверхность Затем выберите изменение фона.
2. Советы по использованию терминала оболочки в Ubuntu:
1. Vim в Ubuntu отображает номера строк.
1) Введите команду для установки vim под Ubuntu:
2) После успешной установки создайте новый документ по желанию, вот новый документ a.txt.
Затем нажмите букву «i» на клавиатуре в открывшемся интерфейсе, чтобы войти в режим редактирования, и введите содержимое по желанию, при этом номер строки не отображается.
3) Нажмите клавишу ESC, введите двоеточие «:», введите команду «установить номер» и нажмите клавишу ввода «ENTER», и отобразится номер строки. Но это действительно только для этого редактирования.
4) Чтобы номер строки отображался постоянно, отредактируйте файл vimrc в каталоге / etc / vim / и добавьте в него номер набора команд.
После редактирования и нажатия клавиши ESC введите по очереди «: wq» для сохранения и выхода.
Просто откройте документ и обнаружите, что номер строки уже может отображаться. Если вы не хотите отображать номер строки в будущем, вы можете удалить номер набора предложений в файле vimrc в / etc / vim /.
PS: разница между vim и vi (воспроизведено с: https://www.cnblogs.com/KiraEXA/p/5994078.html):
Эти преимущества vim в основном отражаются в следующих аспектах:
1. Многоуровневая отмена
Мы знаем, что в vi нажатие u может отменить только последнюю команду, а в vim вы можете отменить неограниченное количество раз.
2. Простота использования
vi может работать только в unix, а vim может работать не только в unix, windows, mac и других многооперационных платформах.
3. Подсветка синтаксиса
Vim может использовать разные цвета для выделения вашего кода.
4. Визуальная операция
Это означает, что vim можно запускать не только в терминале, но и в x window, mac os, windows.
5. Полностью совместим с vi
В некоторых случаях вы можете использовать vim как vi.
И vi, и vim являются редакторами в Linux. Разница в том, что vim более продвинутый и может рассматриваться как обновленная версия vi. vi используется для редактирования текста, но vim больше подходит для кодирования. Чтобы
vi имеет 3 режима: режим вставки, командный режим и режим нижней строки.
Режим вставки: в этом режиме вы можете вводить символы, нажмите ESC, чтобы вернуться в командный режим. Чтобы
Командный режим: вы можете перемещать курсор, удалять символы и т. Д. Чтобы
Режим нижней строки: вы можете сохранять файлы, выходить из vi, устанавливать vi, искать и другие функции (режим нижней строки также можно рассматривать как командный режим). Чтобы
1. Открытие, сохранение и закрытие файлов (используется в командном режиме vi)
vi filename // Открыть файл с именем файла
: w // Сохраняем файл
: w vpser.net // Сохраняем в файл vpser.net
: q // Выйти из редактора, если файл был изменен, используйте следующую команду
: q! // Выходим из редактора без сохранения
: wq // Выходим из редактора и сохраняем файл
2. Вставить текст или строку (используется в командном режиме vi, после выполнения следующей команды он перейдет в режим вставки, нажмите клавишу ESC для выхода из режима вставки)
a // Добавляем текст справа от текущей позиции курсора
i // Добавляем текст слева от текущей позиции курсора
A // Добавляем текст в конец текущей строки
I // Добавляем текст в начало текущей строки (начало строки с непустыми символами)
O // Создаем новую строку над текущей строкой
o // Создаем новую строку ниже текущей строки
R // Заменить (перезаписать) текущую позицию курсора и некоторый текст за ним
J // Объединить строку, на которой находится курсор, и следующую строку (все еще в командном режиме)
2. Найдите файлы в Ubuntu (перенесено с: http://www.jb51.net/os/Ubuntu/62771.html):
1. Поиск по имени файла:
1. найти команду
найти параметры команды
2. Команда locate
/m
Искать все файлы, начинающиеся с m, в домашнем каталоге пользователя и игнорировать регистр.
Обнаружено имя файла, содержащее строку «имя файла». Это проще, чем команда find. Но на основе базы данных (обычно перестраиваемой ночью), поэтому вы не можете найти файл, который только что был сохранен в файловой системе. Чтобы принудительно обновить базу данных немедленно, как суперпользователь, вы можете использовать: updatedb & (без пробелов между ними)
3. какая команда
which executeable_name
Найдите исполняемый файл по имени исполняемого файла.
Например, какой apache2 возвращает / usr / sbin / apache2
2. Поиск по содержимому файла.
Специальный способ просмотра содержимого файла
Three components form the VIM functionality in vCloud NFV: the vCenter Server Appliance, the NSX Manager, and the vCloud Director for Service Providers. vCloud Director is the top level VIM component. It leverages the vCenter Server Appliance and the NSX Manager to perform VIM functionality. vCloud Director, vCenter Server Appliance, and the NSX Manager are layered in a hierarchical fashion to facilitate the separation of roles and responsibilities in the CSP networks and to increase overall system resiliency.
Figure 1. VIM Hierarchy in VMware vCloud NFV
VMware vCloud Director
vCloud Director is an abstraction layer that operates on top of the other virtualized infrastructure manager components, vCenter Server and NSX Manager. vCloud Director builds secure, multitenant virtual environments by pooling virtual infrastructure resources into virtual data centers and exposing them to users through Web based portals and programmatic interfaces as fully automated, catalog based services.
A fundamental concept in vCloud Director is that of the tenant. A tenant is a logically isolated construct representing a customer, department, network function, or service, used to deploy VNF workloads. vCloud Director isolates administrative boundaries into NFVI tenants. VNF workload resource consumption is therefore segmented from other VNF workloads, even though the VNFs may share the same resources.
The pooled resources used by vCloud Director are grouped into two abstraction layers:
Provider Virtual Data Centers. A provider virtual data center (PvDC) combines the compute and memory resources of a single vCenter Server resource pool with the storage resources of one or more datastores available to that resource pool. This construct is the highest in the vCloud Director resource catalog hierarchy.
Organization Virtual Data Centers. An organization virtual data center (OvDC) provides resources to an NFVI tenant and is partitioned from a provider virtual data center. OvDCs provide an environment where virtual systems can be stored, deployed, and operated. They also provide storage for virtual media such as ISO images, VNF templates, and VNF component templates.
vCloud Director implements the open and publicly available vCloud API, which provides compatibility, interoperability, and programmatic extensibility to network equipment providers (NEPs) and their VNF Managers. The vCloud Director capabilities can be extended to create adaptors to external systems including OSS/BSS.
VMware vCenter Server
The VMware vCenter Server ® is the centralized management interface for compute and storage resources in the NFVI. It provides an inventory of allocated virtual to physical resources, manages inventory related information, and maintains an overview of the virtual resource catalogs. vCenter Server also collects data detailing the performance, capacity, and state of its inventory objects. vCenter Server exposes programmatic interfaces to other management components for fine grained control, operation, and monitoring of the underlying virtual infrastructure.
A resource pool is a logical abstraction which aggregates the use of vCenter Server resources. Multiple resource pools, grouped into hierarchies, can be used to partition available CPU and memory resources. The resource pool allows the operator to compartmentalize all resources in a cluster and, if necessary, delegate control over a specific resource pool to other organizations or network functions. The operator can also use resource pools to isolate resources used by one service or function from others.
VMware NSX Manager
The NSX Manager is the primary management plane interface for configuration of network resources within the NFVI. The NSX Manager is responsible for the deployment and management of the virtualized network components, and functions used to support the creation of network services by the VNFs. Such functions include network segments, routing, firewalling, and load balancing, etc.
Установка VMware vCenter Server Appliance и создание кластера vSphere
Nov 3, 2016 · 26 min read
VMware vCenter Server — это платформа для централизованного управления VMware vSphere, помогающая автоматизировать управление виртуальной инфраструктурой. vCenter Server позволяет объединить хосты ESXi в кластер и получить “высокую доступность” и отказоустойчивость за счет “зеркалирования” и создания правил миграции виртуальных машин в случае отказа серверов.
Помимо установщика для операционных систем Windows существует готовый шаблон для развертывания vCenter Server в виде отдельной виртуальной машины — VMware vCenter Server Appliance (или vCSA), который построен на 64-битном SUSE Linux Enterprise Server.
Установка vCenter Server Appliance.
Установка vCSA будет про и зводиться с ПК, где установлена ОС Windows. Начиная с шестой версии vCSA процесс установки перенесен в браузер. Установка так же возможна из командной строки (актуально для Linux и Mac OS) — подробности в Command-Line Deployment of VMware vCenter Server Appliance 6.0.
Допустим, сетевые настройки хоста ESXi, где будет размещаться vCSA следующие:
vCSA не поддерживает TCP/IP v6 (для этого нужен vCenter Server установленный на ОС Windows), поэтому при конфигурации хостов TCP/IP v6 не использовался. 192.168.3.241 — это адрес виртуальной машины контроллера домена Active Directory, размещенной на данном хосте.
Обратите внимание, что домен vSphere должен быть отличным от домена Active Directory. Ввод vCenter Server Appliance будет введен в домен Active Directory и настройка True SSO будут произведены чуть ниже. Поэтому перед установкой создаем на DNS-сервере A-записи для vCenter Server Appliance и хоста, на котором он будет устанавливаться:
Если в качестве DNS-сервера используется Bind, в текстовый конфиг зоны vdi.local необходимо внести А-записи для esxi00 и VCSA-01:
Если компьютер, с которого будет осуществляться установка vSCA настроен на другой DNS-сервер, то добавляем в файл hosts:
Теперь скачиваем ISO-образ vCenter Server Appliance с сайта VMware. На момент написания это файл:
Монтируем этот образ в вашу ОС Windows в виде виртуального CD/DVD-диска, заходим в папку vcsa и устанавливаем плагин:
После чего в корневой папке диска запускаем vcsa-setup.html:
и дальнейшая установка будет продолжена в браузере. Жмем “ Запустить приложение” и появившуюся кнопку “ Intall”.
Читаем лицензионное соглашение, указываем параметры хоста ESXi, где предполагается развернуть vCSA: IP-адрес, логин и пароль для управления хостом:
Указываем имя виртуальной машины, логин и пароль для доступа к консоли по SSH:
Создаем новый Single Side On домен и задаем пароль администратора домена:
Далее указываем масштаб инфраструктуры, где по мере выбора будут отображены необходимые ресурсы. Обратите внимание, что для управления более 5 хостами и 50 машин вместо встроенной vPostgres рекомендуется использовать внешнюю СУБД Oracle.
Указываем datastore, где будет располагаться виртуальная машина, настраиваем подключение к базе дынных (или используем встроенную) и переходим к сетевым настройкам. Обратите внимание, что во избежание ошибок при установке FQDN для vCSA нужно указывать вместе с SSO-доменом:
Сверяем настройки и переходим к процессу развертывания:
Если все настройки указаны верно, то через некоторое время процесс развертывания завершится:
Можно переходить к следующему пункту “ Создание инфраструктуры vSphere”.
Если в процессе развертывания появилось сообщение об ошибке:
Firstboot script execution Error.
The supplied System Name vCenter_Server_FQDN is not valid.
это означает, что указан неверный FQDN для vCSA. Но если перед установкой вы создали соответствующие A-записи на DNS-сервере (и исправили файл hosts), то проблем возникнуть не должно. В противном случае — для решения проблемы необходимо:
1. Открыть консоль vCenter Server Appliance, нажать CTRL+ALT+F3 и залогиниться под пользователем root.
2. Для того, чтобы сделать доступным shell ввести:
4. Отправить ICMP-запрос на DNS-сервер:
5. Используем команду nslookup, чтобы определить “резолвится” ли vCenter Server Appliance по FQDN:
в нашем случае должно быть:
Внимательно ознакомьтесь с требованиями к настройке DNS в официальной инструкции и устраните проблему.
6. Далее повторите установку vSphere Center Appliance.
Обновление vCenter Server Appliance.
Периодически будут выходить патчи и обновления, которые желательно устанавливать. Переходим на страницу поиска обновлений, выбираем “VC” и актуальную в настоящий момент версию “6.0.0”. Собственно, здесь варианта два:
Third Party (TP) — обновление каких-то отдельных компонентов, Full Patch (FP) — обновление всех компонентов vCSA.
Качаем обновление, например:
монтируем его как CD-привод виртуальной машины vCSA через vSphere Clinet, переходим в консоль vCSA (по нажатию Cntrl+Alt+F3) и, если вы желаете установить патчи прямо сейчас, то выполняем команду:
Как вариант, можно обновить компоненты, но пока не устанавливать (отправить в очередь, или “стэйджинг”):
Просмотреть пакеты, отправляемые в “стэйджинг” можно командой:
И, наконец, установить пакеты со “стейджинга” можно:
и далее отправить ВМ в перезагрузку:
После перезагрузки можно открыть веб-консоль по адресу:
переходим во вкладку “Update”, где в нашем примере видим версию:
Как вариант, можно обновиться по URL прямо из веб-консоли, выбрав опцию “Check URL”.
Более подробную информацию по обновлению vCenter Server Appliance можно получить здесь.
Присоединение vCSA к Active Directory.
Вы можете прикрепить Platform Services Controller appliance, или vCenter Server Appliance к домену Active Directory, чтобы “привязать” пользователей и группы домена Active Directory к домену vCenter Single Sign-On. Обратите внимание, что присоединение к контроллеру домена в режиме “только для чтения” невозможно.
Если вы хотите управлять правами пользователей и групп, для доступа к компонентам vCenter Server вам необходимо присоединить Platform Services Controller к контроллеру домена Active Directory. Например, для того чтобы дать пользователю возможность входа в vCenter Server с использованием аутентификации Windows, необходимо присоединить vCenter Server Appliance к контроллеру домена Active Directory и ассоциативно назначить пользователю права администратора vCenter. Кроме того, развертывание таких платформ, как Horizon View Composer (и его последующее присоединение его к Horizon View Connection Server и vCenter Server) проблематично без присоединения vCenter Server Appliance к контроллеру домена Active Directory.
Прежде, чем присоединить vCSA к контроллеру домена Active Directory убедитесь:
За дополнительной информацией можно обратиться по этой ссылке.
Процесс присоединения vCSA к контроллеру домена может завершиться ошибкой — через веб-интерфейс:
Для предотвращения необходимо:
со значения “SamSS Srv” на значение “SamSS Srv2” (без кавычек) и перезагрузить сервер:
Теперь открываем браузер и входим в веб-интерфейс vSphere:
или вместо FQDN используем IP-адрес vSCA. Вводим:
и в появившемся окне вводим домен (обратите внимание, что домен Active Directory должен быть отличным от домена vCenter Single Sign-On). Например:
Через некоторое время в оснастке “Active Directory — пользователи и компьютеры” появится vCSA:
vCenter Server Appliance можно так же присоединить к домену Active Directory с использованием консоли:
Для завершения операции присоединения к домену Active Directory требуется перезагрузка. Далее снова логинимся в веб-интерфейс vCenter, открываем:
вводим имя домена ( domain.local) и жмем “Ok”. Добавился новый “источник идентификации” (Identify Source):
Теперь сопоставим роль администратора vCenter Single Side-On учетной записи domain_admin домена domain.local. Переходим:
и назначаем пользователя:
Теперь добавим пользователя domain_admin из домена domain.local в группу администраторов vdi.local — переходим:
и добавляем пользователя:
Теперь можно логиниться под пользователем domain_admin с правами администратора vdi.local:
Активация лицензии vCenter Server.
Для каждого vCenter Server (или vCenter Server Appliance) вы можете ассоциировать один из введенных ключей. Для этого в веб-консоли:
Создание инфраструктуры vSphere.
Далее необходимо создать новую инфраструктуру (или в терминологии vSphere — “Datacenter”):
И создаем новый кластер:
В раскрывшемся окне задаем настройки для создаваемого кластера.
vSphere позволяет объединить несколько физических хостов и создать кластер на уровне виртуальных машин. Для организации кластера vSphere требуется, как минимум, два хоста. vSphere позволяет организовать отказоустойчивость за-счет двух типов кластеров: vSphere HA и vSphere DRS.
vSphere HA (High-availability) — технология создания кластера высокой доступности: при выходе хоста из строя виртуальная машина может запускаться на другом хосте. Фактически временем простоя является загрузка операционной системы виртуальной машины на другом хосте. Для того, чтобы избежать простоя во время работы виртуальной машины на одном из хостов на другом активируется её реплицированная копия, изолированная по вводу-выводу от общей инфраструктуры. В случае отказа первого хоста, на котором изначально запущена виртуальная машина происходит переключение ввода-вывода и активируется “призрак”.
Включение “ Host monitoring” позволяет vSphere HA реагировать на сбои в работе хостов, или ВМ, а настройки “ Admission control” позволяют контролировать обеспечение достаточного количества ресурсов для организации отказоустойчивости. Можно указать, как минимальное количество хостов для обеспечения отказоустойчивости (Host failure cluster tolerates), так и процентное соотношения ресурсов процессора и памяти.
vSphere DRS (Distributed Resource Scheduler) — технология кластеризации, которая применяется для балансировки нагрузки между хостами. Отличается от HA тем, что vCenter сам определяет, на каком хосте хранить виртуальным машины. DRS позволяет vCenter сбалансировать нагрузку гостевых операционных систем между хостами для обеспечения равной загруженности между всеми хостами. Можно настроить правила для распределения физических ресурсов между виртуальными машинами, а так же выбрать режим ручного контроля (Automation Level):
Параметр Migration Threshold указывает, насколько принудительно будут мигрировать виртуальные машины в случае отказа хоста, на котором они размещены.
EVC (Enhanced VMotion Compatibility) — опция настройки кластера для совместимости процессоров разных поколений. Суть в том, что если в кластере используются как новые, так и более старые процессоры, то на новых процессорах отключаются некоторые инструкции для обеспечения наибольшей совместимости. Список поддерживаемых процессоров и другая полезная документация находится здесь.
Virtual SAN — софтварное общее хранилище корпоративного класса. Фактически, это еще один продукт VMware.
После создания кластера можно приступить к добавлению хостов ESXi:
Lockdown mode — режим, предотвращающий прямое подключение к объединенным в кластер хостам, минуя централизованное управление.
Возможны три режима:
Последним шагом будет предложено объединить виртуальные машины расположенные на подключаемом хосте в родительский пул ресурсов (resource pool) кластера, или создать отдельный новый пул.
Хост(ы) добавлен(ы). Теперь можно создать шаблоны (templates) различных операционных систем и сконфигурированных виртуальных машин, чтобы по необходимости можно было создать новую, отредактировав её конфигурацию и настройки операционной системы, а так же клонировать виртуальные машины:
Создание vSphere Distributed Switch.
vSphere Distributed Switch (или vDS), доступный в vSphere редакции Enterprise plus, позволяет объединить хосты ESXi и создать единую управляемую сеть для всего кластера vSphere. VMware vDS дает возможность централизованного управления и мониторинга сети на различных уровнях, а так же резервного копирования и восстановления конфигурации сети в случае сбоев.
Основные преимущества vSphere Distributed Switch:
Ознакомиться более подробно с возможностями vDS можно здесь:
Для того, чтобы создать Distributed Switch необходимо в веб-консоли vSphere и переключиться режим обзора “Networking”. Далее открываем контекстное меню:
В открывшемся мастере указываем имя свитча ( DSswitch), версию, количество uplinks ( 4), оставляем включенным “ Network I/O control” и чек-бокс на пункте “ Create default port group”:
Теперь добавим хосты в созданный распределенный комутатор:
В раскрывшемся мастере выбираем в качестве задания ( Select task) выбираем “ Add hosts”, выбираем хосты ( Select hosts), которые необходимо объединить, а на вкладке “ Select network adapter tasks” выбираем задачи:
Migrate virtual machine networking и vMotion лучше отделить в отдельную группу портов. На вкладке “Manage physical network adapters” назначаем uplinks для сетевых интерфейсов хостов:
и, перейдя на вкладку “Manage VMkerkel network adapters”, назначаем группу портов для сетевых адаптеров VMkernel. Выбранные сетевые адаптеры мигрируют на распределенный коммутатор:
Если все сконфигурировано верно на следующей вкладке будет статусы “No impact”:
Теперь все хосты ESXi подключены к распределенному коммутатору. Объединение сетевых интерфейсов хостов в единый распределенный коммутатор позволяет централизованно управлять конфигурацией сети, таким образом, создав группу портов распределенного сетевого коммутатора, она автоматически создастся на всех хостах.
Создадим новую группу портов:
Указываем настройки группы портов: количество портов — 8, Распределение портов — “Elastic” (в отличии от “Fixed”, позволяет автоматически менять необходимое количество портов), VLAN ID — 35:
По аналогии можно создать группу портов для только что созданной “Custom Network”:
Если в вашей инфраструктуре имеются хосты, использующие группы портов на стандартном коммутаторе (Standart vSwitch) и их необходимо перенести на распределенный коммутатор (Distributed Switch), то переключаемся в режим обзора “Hosts and clusters” и на необходимом хосте открываем:
Выбираем необходимый сетевой адаптер и отключаем необходимый физический адаптер:
Теперь добавляем хост к распределенному коммутатору. Переходим:
и выбираем хост, который нужно перенести:
Ставим чек-бокс на опции “Migrate virtual machine networking” для того, чтобы изменить конфигурацию и перенести необходимые интерфейсы ВМ на распределенный коммутатор:
Далее, аналогично рассмотренному выше процессу добавления хостов, назначаем физическому адаптеру uplink:
и назначаем интерфейс на группу портов распределенного коммутатора:
В следующей вкладке выбираем интерфейсы виртуальных машин, для которых необходимо осуществить миграцию:
сверяем все настройки на вкладке “Ready to complete” и ждем завершения всех операций, статус которых отображается в окне “Recent Tasks”.
На этом базовые настройки распределенного коммутатора закончены. За дополнительной информацией можно обратиться:
Расширенные настройки кластера vSphere.
Ниже приведен список различных параметров для управления различными механизмами кластера и его составляющих (ВМ, хосты, пулы ресурсов). Данный перечень не является универсальным руководством по настройке отказоустойчивости vSphere, а лишь детально описывает его настройки — параметры, с помощью которых можно управлять алгоритмами по распределению ресурсов и организации отказоустойчивости. За подробными практическими руководствами по организации кластеров vSphere следует обратиться:
vSphere HA.
Параметры vSphere HA выглядят следующим образом:
Включение опции Host Monitoring позволяет главному хосту vSphere HA реагировать на сбои в работе хостов, или ВМ, а опция Protect against Storage Connectivity Loss позволяет предотвратить проблемы подключения к накопителям (Permanent Device Loss PDL, или All Paths Down).
Параметр Virtual Machine Monitoring позволяет перезапустить определенные ВМ, если их состояние не будет получено в течение определенного отрезка времени (heartbeat). При выборе “ VM and Application Monitoring ” потребуется установка VMware Tools. Далее предоставляется настройка отдельных параметров Failure Conditions and VM response:
Admission Control — политика управления, используемая vSphere HA, используемая для контроля достаточных количества ресурсов (Failover capacity) в кластере при обеспечении отказоустойчивости. При этом ресурсы исчисляются в виде “слотов”, а его размер задается в Slot size policy. Возможны четыре варианта Admission Control:
Datastore and heartbeating — раздел настроек, с помощью которых задаются резвервные datastore. vSphere HA может выявлять сбойные хосты и виртуальные машины, расположенные не сетевых носителях. Если такой носитель оказывается недоступным по причине сбоя сети, или в случае выхода из строя будет назначен резервный. Возможен, как автоматический выбор ( Automatically acess datastores acessible from the host), так и задание списка ( Use datastores only from the specified list), а так же — выбор по их необходимости ( Use datastores from the specified list and complement automatically if needed). Дополнительную информацию можно получить здесь.
Advanced options задают дополнительные настройки HA:
Обратите внимание, что изменение параметров das.isolationaddress[…], das.usedefaultisolationaddress и das.isolationshutdowntimeout требуют выключение и повторное включение vSphere HA для того, чтобы внесенные изменения были применены. Более подробную информацию по дополнительным параметрам vSphere HA можно получить:
vSphere DRS.
Расширенные настройки vSphere DRS выглядят следующим образом:
Automation Level — режим автоматизации DRS, задающий распределение нагрузки: Manual (vCenter не перемещает ВМ, но подсказывает), Partially automated (vCenter будет подсказывать, а так же появится возможность выбрать, где включить ВМ) и Fully automated (vCenter будет автоматически перемещать ВМ для более эффективного распределения нагрузки).
Migration Threshold — коэффициент (от 1 до 5), указывающий насколько агрессивно будет осуществляться миграция ВМ:
Migration Threshold 1: Порог равный единице нужен только тогда, когда кластер не нуждается в балансировке нагрузки. Наглядным примером использования Migration Threshold=1 является ситуация, когда требуется техническое обслуживание какого-то хоста (host maintance), но при этом требуется соблюдение правил DRS. Например, необходимо установить на отдельный хост обновление ESXi, перед установкой которых все ВМ с обновляемого хоста мигрируют на другие. DRS оценивает производительность и выдает рекомендации по переносу ВМ. После того, как хост переведен в “Maintance mode” и установлены все обновления, необходимо вывести хост из “Maintance mode” и поменять Migration Threshold, для того, чтобы выровнять нагрузку на хосты и задействовать обновленный хост.
Migration Threshold 2–5: Чем выше порог, тем более принудительна миграция ВМ в случае отказа одного из хостов и более агрессивно распределение ВМ. С другой стороны, чем выше порог, тем больше перемещений ВМ и тем более сбалансирован кластер по нагрузке, даже если это не приносит никакой пользы по производительности. Таким образом, значение по умолчанию 3 — является наиболее подходящим для большинства случаев.
Virtual Machine Automation. Чек-бокс разрешает использовать разный Automation Level для отдельной ВМ (вкладка “VM Overrides”), а так же ряд индивидуальных настроек при включенном vSphere HA.
Power Management позволяет vSphere использовать Distributed Power Management (DPM) — расширения DRS, появившегося впервые в ESX 3.5. Суть DPM заключается в том, чтобы управлять питанием хостов с целью экономии электроэнергии. Например, можно отключать хосты на ночь, когда нагрузка небольшая, тогда как DRS переместит ВМ на другие хосты. DPM использует для включения Wake-on-LAN, IPMI, или iLO. При использовании IPMI, или iLO необходимо настроить управление питания для каждого из хостов (см. ниже — описание параметров вкладки Host Options).
По аналогии с Migration Threshold, для DPM так же можно выбрать порог — DPM Threshold: чем больше его значение, тем более агрессивно DPM будет выдавать рекомендации по управлению питанием и утилизации неиспользуемых ресурсов. При выборе режима “Manual” DPM будет отображать рекомендации в веб-консоли vSphere, а при выборе “Automatic” рекомендации применяются автоматически. В автоматическом режиме уровни DRS так же соблюдаются и ВМ мигрируют в соответствии с выбранными правилами, поскольку уровни Distributed Power Management не соответствуют и приравниваются к уровням DRS. Уровни DPM приравниваются ко всем узлам кластера, но так же могут быть выставлены отдельно для каждого хоста индивидуальными настройками.
Advanced Options. В дополнение к порогу миграции (Migration Threshold) предлагается задать дополнительные параметры для тюнинга алгоритма vSphere DRS. Рекомендуется не изменять эти значения, если нет веской на то причины: например, кластер с “тяжелой” формой конфликта ресурсов на некоторых хостах и простой (idle) на других. Вот некоторые из параметров, документированные для vSphere 5.1 и более поздних версий:
Кратковременная установка CostBenefit и MinGoodness в 0 могут внести некоторый результат, потому как vMotion смотрит на кластер как не сбалансированный, абсолютно не учитывая расходы на перемещение ВМ. Правда, такой операции в любом случае необходим достаточный запас ресурсов. Но постоянное использование нулевых значений может привести к циклическому перемещению ресурсов по хостам в ущерб производительности.
Это основные Advanced Options для тюнинга DRS-кластеров, доступные начиная с версии vSphere 5.1, которые применяются для “ослабления” правил в случае разбалансировки кластера.
Частоту, с которой алгоритм DRS вызывается для балансировки можно задать с помощью конфигурационного файла vpxd.cfg со следующей опцией:
По умолчанию частота составляет 300 секунд, но интервал может быть произвольным от 60 до 3600 секунд. Рекомендуется оставлять значание по умолчанию за исключением случаев, когда требуется вызывать алгоритм реже и, тем самым уменьшить потери от работы DRS. Кроме того, существует набор скриптов, с помощью которых можно сделать балансировку кластера более активной, доступных на “Scripts for Proactive DRS” (VMware community page).