Tagged: VxRail

vSphere 7.0 U1 : Nouveautés

Jetons un coup d’œil aux nouvelles fonctionnalités et améliorations du VMware vSphere 7.0 U1

vSphere Clustering Service (vCLS)

Le service de clustering vSphere (vCLS) permet d’utiliser les services de clustering et DRS sans avoir besoin de la disponibilité de vCenter Server pour ses opérations et ses configurations.

Cela signifie que même lorsque vSphere High Availability (HA) ou vCenter Server High Availability (VCHA) n’est pas disponible, vCLS fonctionnera toujours car il utilise ses propres agents VMs système.

Ces petits agents de VM fonctionneront comme un quorum de cluster :

  • Le nombre d’agents de VM système est de 3
  • Pour les clusters avec moins de 3 hôtes ESXi, les agents de VM sont égaux au nombre d’hôtes ESXi dans le cluster.

Même si vous supprimez ou mettez hors tension par erreur ces agents VM système, vCLS les recréera / rallumera automatiquement.

vSphere Lifecycle Manager (vLCM)

vLCM a été lancé avec 7.0, mais maintenant, en plus de la possibilité de mettre à jour ou de mettre à niveau les hôtes vSphere et vSAN, il est également possible de l’utiliser pour la configuration NSX.

NSX-T

La gestion des clusters et des nœuds NSX-T ne serait possible que dans les futures versions de NSX-T.

Il sera possible d’utiliser vLCM via NSX Manager et de gérer tous les aspects du cycle de vie de NSX-T.

Vous pourrez mettre à jour ou mettre à niveau votre NSX-T Cluster avec la remédiation de vos nœuds de cluster.

vSAN

Prise en compte de vSAN fault domains pour une mise à jour intelligente avec vLCM.

vLCM peut effectuer des mises à jour en respectant les zones de disponibilité tout au long du processus de cycle de vie des mises à jour.


vSphere Lifecycle Manager (vLCM) est conscient des topologies vSAN telles que les fault domains vSAN et de zone de disponibilité.

Certains des produits qui sont pris en charge lors de l’utilisation de vSphere Lifecycle Manager avec vSphere 7.0 U 1 :

  • Prise en charge de NSX-T (à partir des prochaines versions de NSX-T)
  • Prise en charge de vSAN
  • Intégration Firmware pour Lenovo ThinkAgile VX series

vSphere with Tanzu Kubernetes Grid (TKG)

vSphere with Tanzu a été introduit dans vSphere 7.0, mais maintenant la plus grande nouveauté avec TKG est que nous pouvons désormais l’utiliser dans vSphere sans avoir besoin d’utiliser le package VMware Cloud Foundation (comprenait vSphere, NSX-T et vRealize). 

Dans cette nouvelle version, il sera possible d’implémenter Kubernetes directement avec vSphere et d’utiliser les applications et les conteneurs.

Les administrateurs peuvent désormais utiliser leurs propres solutions :

  • Réseau (pas nécessairement NSX) en utilisant des vSwitches distribués pour fournir un réseau à Kubernetes.
  • Stockage (pas nécessairement vSAN ) à l’aide de vos banques de données vSphere.

Scalability : hosts et VMs

Avec cette nouvelle mise à jour, il sera possible d’avoir d’énormes VM avec 768 vCPU et 24 To de mémoire.

vSphere Cluster aura la possibilité d’avoir un maximum de 96 hôtes ESXi par cluster, il s’agit d’une augmentation de 50% par rapport à la capacité actuelle d’un cluster.

Remarque: cela concerne uniquement vSphere Cluster, pour vSAN, le maximum est toujours de 64 hôtes ESXi par cluster.

Les hôtes ESXi disposeront également d’un maximum de 24 Tb de mémoire physique, ces modifications sont disponibles uniquement avec le nouveau Virtual Hardware v18.

vSphere 7.0 U1 : vSphere Scalability

vCenter Connect

vCenter Connect vous permet de connecter votre vCenter à tous vos environnements vCenter on-premise, à distance et Cloud Partner (comme VMware sur AWS, sur Azure, IBM).

À partir d’un point de gestion central, les clients auront la possibilité de gérer l’ensemble de l’infrastructure VMware.

vSphere 7.0 U1 : vCenter Connect

Aperçu des nouvelles fonctionnalités de vSphere 7.0 U1

YouTube player

Service de fichiers vSAN [vSAN File Services]

Service de fichiers vSAN est l’une des nouveautés de la version 7.

Les Service de fichiers vSAN permettent la configuration de partages SMB ou NFS, de sorte que VSAN peut évidemment devenir un serveur de fichiers.

Il s’agissait d’une fonctionnalité qui permet de fournir le stockage aux applications basées sur des conteneurs exécutées dans des clusters vSphere et également fourni un élément clé pour servir des applications cloud natives dans vSAN.

Le service de fichiers VSAN est fourni via les VM Photon OS, également appelées VM agent, qui sont des appliances virtuelles très légères exécutant Photon OS et Docker.

Les machines virtuelles d’agent exécutent des serveurs NFS et fournissent un accès aux partages de fichiers.

Les administrateurs n’ont pas à se soucier de ces machines virtuelles, pas de correctifs, pas de gestion VM Tools, etc…

Si une telle machine virtuelle est supprimée accidentellement, le système la recrée automatiquement.

Configuration

Une fois connecté au niveau vCenter Server via le client Web vSphere, sélectionnez le cluster vSAN> > Configure > vSAN > Services.

Au niveau vSAN services, Activer le service (File Service) pour démarrer l’assistant de configuration.

Service de fichiers vSAN configuration

Architecture

Service de fichiers vSAN Architecture

Prérequis

  • CPU: les nœuds de fichier vSAN nécessitent 4 processeurs virtuels, l’hôte doit donc avoir un processeur avec au moins 4 cœurs, sinon vous obtiendrez des messages d’erreur.
  • Adresse IP statique et enregistrements DNS:
    • vous devrez créer des enregistrements DNS directs et inversés pour les nœuds des services de fichiers vSAN.
    • Une Adresse IP statique est requis pour les serveurs de fichiers.
  • Domaine AD:
    • vous devrez également fournir des informations sur votre domaine AD pour le partage SMB et le partage NFS avec la sécurité Kerberos.
    • En outre, un compte d’utilisateur avec des autorisations suffisantes est requis.

Démonstration Service de fichiers vSAN

YouTube player

vSAN HCI Mesh

vSAN HCI Mesh (également appelé Maillage HCI) est l’une des nouvelles fonctionnalités introduites avec la version vSAN 7 Update 1.

Le Maillage HCI assure la désagrégation du calcul et du stockage en permettant aux clients vSAN de partager des banques de données vSAN entre deux ou plusieurs clusters.

Les administrateurs vSAN peuvent configurer une relation entre plusieurs clusters et autoriser ces clusters à partager la capacité de la banque de données vSAN.

En utilisant vSAN HCI Mesh, vous pouvez maintenant monter la banque de données distante et l’utiliser comme s’il s’agissait d’une banque de données locale.

VMware-vSAN-HCI-Mesh-architectural-overview What is VMware vSAN HCI Mesh?
Quelques exemples de cas d’utilisation (Use case) :
  • Vous avez un cluster hybride et un cluster 100% Flash et vous souhaitez provisionner une VM sur le cluster hybride, tout en profitant des avantages du stockage 100% Flash.
  • Vous avez deux clusters, le premier (Cluster X) n’a plus de stockage disponible et le second (Cluster Y) est plein côté calcul et vous devez déployer de toute urgence une VM pour répondre à un besoin métier, dans ce cas vous pouvez créer la VM sur le cluster X (utilisation de la capacité de calcul) en pointant vers la base de données du cluster Y (utilisation du stockage disponible).

Cette fonctionnalité utilise l’adaptateur vSAN VMKernel natif et le protocole RDT pour communiquer dans la topologie HCI maillée avec d’autres nœuds vSAN.

 La grande différence entre une banque de données vSAN « locale » et un maillage HCI réside dans le fait que « DOM Client » et « DOM Owner » ont été séparés.

Donc au lieu d’avoir le « DOM Owner » localement, il est maintenant distant sur le cluster distant.

vSAN HCI Mesh

VMware vSAN HCI Mesh offre certainement la capacité nécessaire pour satisfaire de nombreux cas d’utilisation différents.

Les capacités de désagrégation apportées par vSAN HCI Mesh dans vSAN 7 Update 1 permettront aux clients d’utiliser plus efficacement le stockage dans les environnements vSAN.

Cela facilitera le regroupement des ressources disponibles, notamment le calcul et le stockage sur de nombreux clusters différents (Disaggregated cross cluster architecture).

YouTube player

vSAN Performance Monitor

vSAN Performance Monitor est un outil de surveillance basé sur les métriques de performances vSAN.

Il collectera périodiquement les performances de vSAN et d’autres mesures à partir des clusters vSAN.

Les données collectées sont visualisées de manière plus efficace et conviviale.

vSAN Performance Monitor est fourni avec des tableaux de bord préconfigurés qui aideront les clients à évaluer les performances des clusters vSAN, identifier et diagnostiquer les problèmes.

Ces tableaux de bord sont fortement inspirés de vSAN Observer.

Le moniteur est fourni dans une appliance virtuelle avec trois composants principaux, à savoir :

  • Telegraf: l’agent qui collecte les métriques du cluster vSAN et les stocke dans InfluxDB
  • InfluxDB: la base de données pour stocker les métriques
  • Grafana: Nous utilisons Grafana comme frontend pour virtualiser les métriques stockées dans InfluxDB
vSAN Performance Monitor Aarchitecture

Une fois déployés, les utilisateurs devront pointer le collecteur vers les clusters vSAN cibles et démarrer le service.

Après cela, les données seront collectées périodiquement et peuvent être visualisées sous forme de tableau de bord.

Ci-après un exemple de tableau de bord de vSAN Performance Monitor :

vSAN Performance Monitor tableau de bord
Téléchargement

L’outil est disponible au téléchargement via : URL

HCIBench

HCIBench «Hyper-converged Infrastructure Benchmark», vise à simplifier et à accélérer les tests de performance, dans le cadre des POC (Proof of concept) et démonstration de manière cohérente et contrôlée.

HCIBench est spécialement conçu pour exécuter des tests de performances sur des banques de données partagées ou locales dans vSphere.

Il disponible sous la forme d’une Appliance (OVA).

L’outil automatise entièrement le processus de bout en bout de :

  • Déploiement de machines virtuelles de test
  • Coordination des exécutions de charge de travail
  • Collecte des données
  • Agrégation des résultats de test
  • Analyse des performances

HCIBench n’est pas seulement un outil de référence conçu pour vSAN, mais peut également être utilisé pour évaluer les performances de tous les types de stockage d’infrastructure hyper-convergée dans un environnement vSphere.

Remarque : Il n’est pas recommandé d’exécuter les tests de performances dans un environnement de production car HCIBench exécute des tests de résistance (stress tests), ce qui aura un impact direct sur les autres machines virtuelles qui s’exécutent sur le même cluster.

HCIBench Architecture
Téléchargement

L’outil est disponible au téléchargement au niveau flings VMware : URL

Déploiement

Mode d’emploi (User guide) : URL

Tableau de bord

VxRail PTAgent – Appliance Missing

VxRail PTAgent Troubleshooting – Appliance Missing

Parfois, vous pouvez rencontrer une erreur où votre nœud VxRail entre dans l’état Appliance Missing dans le gestionnaire VxRail mais fonctionne normalement dans vCenter.

Appliance Missing

La cause est généralement le VxRail PTAgent.

Le PTAgent existe pour demander des informations matériel à propos d’un nœud avec une fréquance de quelques minutes en utilisant ipmi.

En supposant qu’il n’y a pas de bogue avec la version de PTAgent en cours d’exécution sur votre VxRail, ce qui suit est un bon point de départ pour le dépannage.

Etape 1

Vérifier la version de PTAgent dont vous disposez.

#esxcli software vib list | grep dellptagent

VxRail PTAgent 1
Etape 2

Vérifier l’état du service ISM.

#/etc/init.d/dcism-netmon-watchdog status
#/etc/init.d/dcism-netmon-watchdog stop
#/etc/init.d/dcism-netmon-watchdog start
#/etc/init.d/dcism-netmon-watchdog status

VxRail PTAgent 2
Etape 3

vérifier l’état du PTAgent

#/etc/init.d/DellPTAgent status
#/etc/init.d/DellPTAgent stop
#/etc/init.d/DellPTAgent start
#/etc/init.d/DellPTAgent status

VxRail PTAgent 3
Etape 4

Vérifiez si VxRail est sur l’état d’écoute (Listen)

#esxcli network ip connection list | grep LISTEN | grep Dell
–grab 4869528
#ps -s | grep 4869528

VxRail PTAgent 4
Etape 5

Si, après avoir effectué les étapes précédentes, le problème persiste.

Il faut mettre le nœud en mode maintenance et redémarrez-le, puis redémarrez la machine virtuelle VxRail Manager.

Par la suite, attendez 5 à 10 minutes et vérifiez l’état du nœud.

Etape 6

Si le problème persiste, veuillez contacter le support DellEMC.

vCenter Server 7.0 Configuration maximums

vCenter Server 7.0 Configuration maximums

  • vCenter Server (Standalone)
    • Hosts per vCenter Server : 2500
    • Powered-ON VMs : 30,000
  • Linked mode vCenter Servers :
    • 15 per SSO domain
    • 15,000 hosts
    • Powered-on VMs: 150,000
  • vCenter server Latency :
    • vCenter Server to vCenter server : 150 ms
    • vCenter Server to ESXi host : 150 ms
    • vSphere client to vCenter Server : 100 ms
vCenter Server 7.0 Configuration maximums
vCenter Server 7.0 Configuration maximums

Modèle de licence par CPU de VMWare

VMware à annoncé une mise à jour importante du modèle de licence par CPU (per-CPU licensing model), afin de continuer à répondre aux besoins des clients dans un paysage industriel en évolution.

Nous aurons maintenant besoin d’une licence pour couvrir jusqu’à 32 cœurs physiques.

Si un CPU a plus de 32 cœurs, des licences supplémentaires seront nécessaires.

L’annonce du modèle de licence par CPU s’inscrit dans la continuité du parcours de VMware visant à aligner ces offres de produits sur les modèles de tarification standard du secteur.

Ce changement rapproche VMware du modèle de tarification standard basé sur le processeur adopté sur le marché.

Par conséquent, cette approche permettra aux clients de comparer plus facilement les licences et les prix entre VMware et les autres fournisseurs (en utilisant la tarification par cœur).

Cela aide VMware également à maintenir des tarifs simples et pertinents par rapport à l’évolution du marché du matériel.

Ce changement n’aura probablement aucun impact sur la grande majorité des clients actuels, car ils utilisent des serveurs Intel et AMD qui sont au niveau ou en dessous du seuil de 32 cœurs.

Tout client qui achète des licences logicielles VMware, pour un déploiement sur un serveur physique avec plus de 32 cœurs par CPU, avant le 30 avril 2020 sera éligible pour des licences supplémentaires gratuites par CPU pour couvrir les processeurs sur ce serveur.

Quelques exemples:
Modèle de tarification par  CPU
Produits concernés

La mise à jour des licences par CPU aura un impact sur toutes les offres VMware qui utilisent le processeur comme métrique de licence.

Voici une liste partielle des produits concernés par la nouvelle politique de licence:

  • VMware Cloud Foundation
  • VMware Enterprise PKS
  • VMware EVO:RAIL General Purpose Suite
  • VMware HCI Kit
  • VMware HCX
  • VMware Integrated OpenStack
  • VMware NSX Data Center
  • VMware SDDC Manager
  • VMware Site Recovery Manager
  • VMware vCenter Site Recovery Manager
  • VMware vCloud Director
  • VMware vCloud NFV Bundle
  • VMware vCloud NFV OpenStack Bundle
  • VMware vCloud Suite
  • VMware vRealize Automation
  • VMware vRealize Code Stream
  • VMware vRealize Network Insight
  • VMware vRealize Suite
  • VMware vRealize Log Insight
  • VMware vSAN
  • VMware vSphere
  • VMware vRealize Operations Manager
  • vRealize Business
  • vRealize Hyperic

Nombre de licences -Licensing VMware

VMware a créé un outil pour identifier le nombre de licences par processeur requis lors de la mise à niveau vers la nouvelle versions des licences VMware.

Cet outil sera utile pour les produits VMware achetés après les changements de modèle de licence annoncés le 3 février 2020 et en cas de renouvellement pour les anciennes plateformes.

Afin d’identifier le nombre de licences requises pour la mise à niveau vers une nouvelle version de vSphere et vSAN, il existe deux méthodes :

  • En ce qui concerne les petits déploiements et les hôtes ESXi non connectés à un vCenter Server:
    • Accéder à Host > Hardware > CPU et vérifiez la valeur des cœurs par socket pour déterminer si votre hôte a plus de 32 cœurs physiques par CPU.
  • Pour les déploiements d’infrastructures à grande échelle :
    • VMware a développé un outil PowerCLI qui collecte et consolide des informations sur la quantité de licences de processeur requises pour chaque hôte connecté à un vCenter Server.
Prérequis :
  • Connecter vous au vCenter Server:

Connect-VIServer -Server vCenter_Server

  • Import PowerCLI function: 

Import-Module .\vSphereCPUSocketToCoreUsage.psm1

  • Run Get-vSphereCPUSocketToCoreUsage function to retrieve results. By default, the script will iterate through all vSphere Clusters.
  • Exécuter la fonction Get-vSphereCPUSocketToCoreUsage pour récupérer les résultats.
Nombre de licences - Nouvelle politique de licensing VMware

Par défaut, le script parcourt tous les clusters vSphere.

CPU_LICENSE_COUNT: nombre de licence CPU de la méthode de licence actuelle
LIMITED_CPU_CORE_LICENSE_COUNT: nombre de licence CPU sous le nouveau modèle de licence.

VMware Skyline

VMware Skyline est un service d’assistance proactif innovant de VMware.

VMware Skyline collecte, regroupe et analyse en toute sécurité et automatiquement les données de configuration, d’opérations et de performances.

Cela permet au support technique VMware d’améliorer les délais de résolution et résoudre de manière proactive les problèmes potentiels.

Aussi, améliorent la visibilité de votre infrastructure auprès du support VMware.

Grâce à ces capacités, les opérations de support abandonnent le mode réactif «Incident= Résolution » et passent à une expérience proactive, prédictive et prescriptive, rendant votre investissement dans le support VMware encore plus rentable.

Ce service est disponible pour tous les clients disposant d’un contrat de support valide (Production Support ou Premier Support).

VMware Skyline Advisor - Inventory View

Badr Eddine CHAFIQ