Your Way To Virtualization

vSphere 7.0 U1 : Nouveautés

Jetons un coup d’œil aux nouvelles fonctionnalités et améliorations du VMware vSphere 7.0 U1

vSphere Clustering Service (vCLS)

Le service de clustering vSphere (vCLS) permet d’utiliser les services de clustering et DRS sans avoir besoin de la disponibilité de vCenter Server pour ses opérations et ses configurations.

Cela signifie que même lorsque vSphere High Availability (HA) ou vCenter Server High Availability (VCHA) n’est pas disponible, vCLS fonctionnera toujours car il utilise ses propres agents VMs système.

Ces petits agents de VM fonctionneront comme un quorum de cluster :

  • Le nombre d’agents de VM système est de 3
  • Pour les clusters avec moins de 3 hôtes ESXi, les agents de VM sont égaux au nombre d’hôtes ESXi dans le cluster.

Même si vous supprimez ou mettez hors tension par erreur ces agents VM système, vCLS les recréera / rallumera automatiquement.

vSphere Lifecycle Manager (vLCM)

vLCM a été lancé avec 7.0, mais maintenant, en plus de la possibilité de mettre à jour ou de mettre à niveau les hôtes vSphere et vSAN, il est également possible de l’utiliser pour la configuration NSX.

NSX-T

La gestion des clusters et des nœuds NSX-T ne serait possible que dans les futures versions de NSX-T.

Il sera possible d’utiliser vLCM via NSX Manager et de gérer tous les aspects du cycle de vie de NSX-T.

Vous pourrez mettre à jour ou mettre à niveau votre NSX-T Cluster avec la remédiation de vos nœuds de cluster.

vSAN

Prise en compte de vSAN fault domains pour une mise à jour intelligente avec vLCM.

vLCM peut effectuer des mises à jour en respectant les zones de disponibilité tout au long du processus de cycle de vie des mises à jour.


vSphere Lifecycle Manager (vLCM) est conscient des topologies vSAN telles que les fault domains vSAN et de zone de disponibilité.

Certains des produits qui sont pris en charge lors de l’utilisation de vSphere Lifecycle Manager avec vSphere 7.0 U 1 :

  • Prise en charge de NSX-T (à partir des prochaines versions de NSX-T)
  • Prise en charge de vSAN
  • Intégration Firmware pour Lenovo ThinkAgile VX series

vSphere with Tanzu Kubernetes Grid (TKG)

vSphere with Tanzu a été introduit dans vSphere 7.0, mais maintenant la plus grande nouveauté avec TKG est que nous pouvons désormais l’utiliser dans vSphere sans avoir besoin d’utiliser le package VMware Cloud Foundation (comprenait vSphere, NSX-T et vRealize). 

Dans cette nouvelle version, il sera possible d’implémenter Kubernetes directement avec vSphere et d’utiliser les applications et les conteneurs.

Les administrateurs peuvent désormais utiliser leurs propres solutions :

  • Réseau (pas nécessairement NSX) en utilisant des vSwitches distribués pour fournir un réseau à Kubernetes.
  • Stockage (pas nécessairement vSAN ) à l’aide de vos banques de données vSphere.

Scalability : hosts et VMs

Avec cette nouvelle mise à jour, il sera possible d’avoir d’énormes VM avec 768 vCPU et 24 To de mémoire.

vSphere Cluster aura la possibilité d’avoir un maximum de 96 hôtes ESXi par cluster, il s’agit d’une augmentation de 50% par rapport à la capacité actuelle d’un cluster.

Remarque: cela concerne uniquement vSphere Cluster, pour vSAN, le maximum est toujours de 64 hôtes ESXi par cluster.

Les hôtes ESXi disposeront également d’un maximum de 24 Tb de mémoire physique, ces modifications sont disponibles uniquement avec le nouveau Virtual Hardware v18.

vSphere 7.0 U1 : vSphere Scalability

vCenter Connect

vCenter Connect vous permet de connecter votre vCenter à tous vos environnements vCenter on-premise, à distance et Cloud Partner (comme VMware sur AWS, sur Azure, IBM).

À partir d’un point de gestion central, les clients auront la possibilité de gérer l’ensemble de l’infrastructure VMware.

vSphere 7.0 U1 : vCenter Connect

Aperçu des nouvelles fonctionnalités de vSphere 7.0 U1

Service de fichiers vSAN [vSAN File Services]

Service de fichiers vSAN est l’une des nouveautés de la version 7.

Les Service de fichiers vSAN permettent la configuration de partages SMB ou NFS, de sorte que VSAN peut évidemment devenir un serveur de fichiers.

Il s’agissait d’une fonctionnalité qui permet de fournir le stockage aux applications basées sur des conteneurs exécutées dans des clusters vSphere et également fourni un élément clé pour servir des applications cloud natives dans vSAN.

Le service de fichiers VSAN est fourni via les VM Photon OS, également appelées VM agent, qui sont des appliances virtuelles très légères exécutant Photon OS et Docker.

Les machines virtuelles d’agent exécutent des serveurs NFS et fournissent un accès aux partages de fichiers.

Les administrateurs n’ont pas à se soucier de ces machines virtuelles, pas de correctifs, pas de gestion VM Tools, etc…

Si une telle machine virtuelle est supprimée accidentellement, le système la recrée automatiquement.

Configuration

Une fois connecté au niveau vCenter Server via le client Web vSphere, sélectionnez le cluster vSAN> > Configure > vSAN > Services.

Au niveau vSAN services, Activer le service (File Service) pour démarrer l’assistant de configuration.

Service de fichiers vSAN configuration

Architecture

Service de fichiers vSAN Architecture

Prérequis

  • CPU: les nœuds de fichier vSAN nécessitent 4 processeurs virtuels, l’hôte doit donc avoir un processeur avec au moins 4 cœurs, sinon vous obtiendrez des messages d’erreur.
  • Adresse IP statique et enregistrements DNS:
    • vous devrez créer des enregistrements DNS directs et inversés pour les nœuds des services de fichiers vSAN.
    • Une Adresse IP statique est requis pour les serveurs de fichiers.
  • Domaine AD:
    • vous devrez également fournir des informations sur votre domaine AD pour le partage SMB et le partage NFS avec la sécurité Kerberos.
    • En outre, un compte d’utilisateur avec des autorisations suffisantes est requis.

Démonstration Service de fichiers vSAN

vSAN HCI Mesh

vSAN HCI Mesh (également appelé Maillage HCI) est l’une des nouvelles fonctionnalités introduites avec la version vSAN 7 Update 1.

Le Maillage HCI assure la désagrégation du calcul et du stockage en permettant aux clients vSAN de partager des banques de données vSAN entre deux ou plusieurs clusters.

Les administrateurs vSAN peuvent configurer une relation entre plusieurs clusters et autoriser ces clusters à partager la capacité de la banque de données vSAN.

En utilisant vSAN HCI Mesh, vous pouvez maintenant monter la banque de données distante et l’utiliser comme s’il s’agissait d’une banque de données locale.

VMware-vSAN-HCI-Mesh-architectural-overview What is VMware vSAN HCI Mesh?
Quelques exemples de cas d’utilisation (Use case) :
  • Vous avez un cluster hybride et un cluster 100% Flash et vous souhaitez provisionner une VM sur le cluster hybride, tout en profitant des avantages du stockage 100% Flash.
  • Vous avez deux clusters, le premier (Cluster X) n’a plus de stockage disponible et le second (Cluster Y) est plein côté calcul et vous devez déployer de toute urgence une VM pour répondre à un besoin métier, dans ce cas vous pouvez créer la VM sur le cluster X (utilisation de la capacité de calcul) en pointant vers la base de données du cluster Y (utilisation du stockage disponible).

Cette fonctionnalité utilise l’adaptateur vSAN VMKernel natif et le protocole RDT pour communiquer dans la topologie HCI maillée avec d’autres nœuds vSAN.

 La grande différence entre une banque de données vSAN « locale » et un maillage HCI réside dans le fait que « DOM Client » et « DOM Owner » ont été séparés.

Donc au lieu d’avoir le « DOM Owner » localement, il est maintenant distant sur le cluster distant.

vSAN HCI Mesh

VMware vSAN HCI Mesh offre certainement la capacité nécessaire pour satisfaire de nombreux cas d’utilisation différents.

Les capacités de désagrégation apportées par vSAN HCI Mesh dans vSAN 7 Update 1 permettront aux clients d’utiliser plus efficacement le stockage dans les environnements vSAN.

Cela facilitera le regroupement des ressources disponibles, notamment le calcul et le stockage sur de nombreux clusters différents (Disaggregated cross cluster architecture).

vSAN Performance Monitor

vSAN Performance Monitor est un outil de surveillance basé sur les métriques de performances vSAN.

Il collectera périodiquement les performances de vSAN et d’autres mesures à partir des clusters vSAN.

Les données collectées sont visualisées de manière plus efficace et conviviale.

vSAN Performance Monitor est fourni avec des tableaux de bord préconfigurés qui aideront les clients à évaluer les performances des clusters vSAN, identifier et diagnostiquer les problèmes.

Ces tableaux de bord sont fortement inspirés de vSAN Observer.

Le moniteur est fourni dans une appliance virtuelle avec trois composants principaux, à savoir :

  • Telegraf: l’agent qui collecte les métriques du cluster vSAN et les stocke dans InfluxDB
  • InfluxDB: la base de données pour stocker les métriques
  • Grafana: Nous utilisons Grafana comme frontend pour virtualiser les métriques stockées dans InfluxDB
vSAN Performance Monitor Aarchitecture

Une fois déployés, les utilisateurs devront pointer le collecteur vers les clusters vSAN cibles et démarrer le service.

Après cela, les données seront collectées périodiquement et peuvent être visualisées sous forme de tableau de bord.

Ci-après un exemple de tableau de bord de vSAN Performance Monitor :

vSAN Performance Monitor tableau de bord
Téléchargement

L’outil est disponible au téléchargement via : URL

HCIBench

HCIBench «Hyper-converged Infrastructure Benchmark», vise à simplifier et à accélérer les tests de performance, dans le cadre des POC (Proof of concept) et démonstration de manière cohérente et contrôlée.

HCIBench est spécialement conçu pour exécuter des tests de performances sur des banques de données partagées ou locales dans vSphere.

Il disponible sous la forme d’une Appliance (OVA).

L’outil automatise entièrement le processus de bout en bout de :

  • Déploiement de machines virtuelles de test
  • Coordination des exécutions de charge de travail
  • Collecte des données
  • Agrégation des résultats de test
  • Analyse des performances

HCIBench n’est pas seulement un outil de référence conçu pour vSAN, mais peut également être utilisé pour évaluer les performances de tous les types de stockage d’infrastructure hyper-convergée dans un environnement vSphere.

Remarque : Il n’est pas recommandé d’exécuter les tests de performances dans un environnement de production car HCIBench exécute des tests de résistance (stress tests), ce qui aura un impact direct sur les autres machines virtuelles qui s’exécutent sur le même cluster.

HCIBench Architecture
Téléchargement

L’outil est disponible au téléchargement au niveau flings VMware : URL

Déploiement

Mode d’emploi (User guide) : URL

Tableau de bord

VxRail PTAgent – Appliance Missing

VxRail PTAgent Troubleshooting – Appliance Missing

Parfois, vous pouvez rencontrer une erreur où votre nœud VxRail entre dans l’état Appliance Missing dans le gestionnaire VxRail mais fonctionne normalement dans vCenter.

Appliance Missing

La cause est généralement le VxRail PTAgent.

Le PTAgent existe pour demander des informations matériel à propos d’un nœud avec une fréquance de quelques minutes en utilisant ipmi.

En supposant qu’il n’y a pas de bogue avec la version de PTAgent en cours d’exécution sur votre VxRail, ce qui suit est un bon point de départ pour le dépannage.

Etape 1

Vérifier la version de PTAgent dont vous disposez.

#esxcli software vib list | grep dellptagent

VxRail PTAgent 1
Etape 2

Vérifier l’état du service ISM.

#/etc/init.d/dcism-netmon-watchdog status
#/etc/init.d/dcism-netmon-watchdog stop
#/etc/init.d/dcism-netmon-watchdog start
#/etc/init.d/dcism-netmon-watchdog status

VxRail PTAgent 2
Etape 3

vérifier l’état du PTAgent

#/etc/init.d/DellPTAgent status
#/etc/init.d/DellPTAgent stop
#/etc/init.d/DellPTAgent start
#/etc/init.d/DellPTAgent status

VxRail PTAgent 3
Etape 4

Vérifiez si VxRail est sur l’état d’écoute (Listen)

#esxcli network ip connection list | grep LISTEN | grep Dell
–grab 4869528
#ps -s | grep 4869528

VxRail PTAgent 4
Etape 5

Si, après avoir effectué les étapes précédentes, le problème persiste.

Il faut mettre le nœud en mode maintenance et redémarrez-le, puis redémarrez la machine virtuelle VxRail Manager.

Par la suite, attendez 5 à 10 minutes et vérifiez l’état du nœud.

Etape 6

Si le problème persiste, veuillez contacter le support DellEMC.

vCenter Server 7.0 Configuration maximums

vCenter Server 7.0 Configuration maximums

  • vCenter Server (Standalone)
    • Hosts per vCenter Server : 2500
    • Powered-ON VMs : 30,000
  • Linked mode vCenter Servers :
    • 15 per SSO domain
    • 15,000 hosts
    • Powered-on VMs: 150,000
  • vCenter server Latency :
    • vCenter Server to vCenter server : 150 ms
    • vCenter Server to ESXi host : 150 ms
    • vSphere client to vCenter Server : 100 ms
vCenter Server 7.0 Configuration maximums
vCenter Server 7.0 Configuration maximums

Télécharger VMware Vsphere 7.0

J’ai l immense plaisir de vous annoncer que vous pouvez actuellement télécharger VMware vSphere 7.0 sur le site officiel de VMware.

Cela fait quelques semaines que VMware a annoncé la sortie de VMware vSphere 7.0, mais les sources d’installation n’ont pas été publiées pour le téléchargement.

Depuis le 02/04/2020, VMware vSphere 7.0 est disponible au téléchargement, cela vous permettra d’évaluer toutes les nouvelles fonctionnalités.

Comment télécharger vSphere 7.0 ?

Pour télécharger vSphere 7, connectez-vous simplement au site Web MY VMware via le lien de téléchargement suivant : MY VMWARE-Téléchargement VSPHERE 7.0

Les deux produits dont vous aurez nécessairement besoin sont l’hyperviseur ESXi et vCenter Server.

  • Télécharger l’hyperviseur ESXi 7.0 en utilisant le lien ci-dessous:

Lien de téléchargement ESXi 7.0

Télécharger l'hyperviseur ESXi 7.0
  • Télécharger vCenter 7.0 en utilisant le lien ci-dessous:

Lien de téléchargement vCenter 7.0

Télécharger vCenter 7.0

Cliquez sur Download. le site vous redirigera vers la page de connexion myvmware, à ce stade, connectez-vous avec vos identifiants puis lancez le téléchargement

Welcome to My VMware

Temps de développement
Depuis vSphere 6.0, VMware a commencé à étendre ses principaux cycles de publication, c’est-à-dire à prendre plus de temps pour développer le produit.

Cette tendance est toujours valable car vSphere 7.0 est sorti 1 an, 11 mois et 17 jours après vSphere 6.7

Le temps de développement de vSphere 7.0 est donc de 716 jours, c’est le plus long depuis la sortie de la première version 1.0 le 23 Mars 2001.

Version vSphere Version

Modèle de licence par CPU de VMWare

VMware à annoncé une mise à jour importante du modèle de licence par CPU (per-CPU licensing model), afin de continuer à répondre aux besoins des clients dans un paysage industriel en évolution.

Nous aurons maintenant besoin d’une licence pour couvrir jusqu’à 32 cœurs physiques.

Si un CPU a plus de 32 cœurs, des licences supplémentaires seront nécessaires.

L’annonce du modèle de licence par CPU s’inscrit dans la continuité du parcours de VMware visant à aligner ces offres de produits sur les modèles de tarification standard du secteur.

Ce changement rapproche VMware du modèle de tarification standard basé sur le processeur adopté sur le marché.

Par conséquent, cette approche permettra aux clients de comparer plus facilement les licences et les prix entre VMware et les autres fournisseurs (en utilisant la tarification par cœur).

Cela aide VMware également à maintenir des tarifs simples et pertinents par rapport à l’évolution du marché du matériel.

Ce changement n’aura probablement aucun impact sur la grande majorité des clients actuels, car ils utilisent des serveurs Intel et AMD qui sont au niveau ou en dessous du seuil de 32 cœurs.

Tout client qui achète des licences logicielles VMware, pour un déploiement sur un serveur physique avec plus de 32 cœurs par CPU, avant le 30 avril 2020 sera éligible pour des licences supplémentaires gratuites par CPU pour couvrir les processeurs sur ce serveur.

Quelques exemples:
Modèle de tarification par  CPU
Produits concernés

La mise à jour des licences par CPU aura un impact sur toutes les offres VMware qui utilisent le processeur comme métrique de licence.

Voici une liste partielle des produits concernés par la nouvelle politique de licence:

  • VMware Cloud Foundation
  • VMware Enterprise PKS
  • VMware EVO:RAIL General Purpose Suite
  • VMware HCI Kit
  • VMware HCX
  • VMware Integrated OpenStack
  • VMware NSX Data Center
  • VMware SDDC Manager
  • VMware Site Recovery Manager
  • VMware vCenter Site Recovery Manager
  • VMware vCloud Director
  • VMware vCloud NFV Bundle
  • VMware vCloud NFV OpenStack Bundle
  • VMware vCloud Suite
  • VMware vRealize Automation
  • VMware vRealize Code Stream
  • VMware vRealize Network Insight
  • VMware vRealize Suite
  • VMware vRealize Log Insight
  • VMware vSAN
  • VMware vSphere
  • VMware vRealize Operations Manager
  • vRealize Business
  • vRealize Hyperic

Mode maintenance via ESXCLI

Certaines opérations d’installation et de mise à jour nécessitent que l’hôte soit en mode maintenance via ESXCLI.

Le mode maintenance est requis lorsqu’une opération de mise à jour nécessite un redémarrage.

Un hôte entre ou sort du mode maintenance uniquement suite à une demande initiée par l’administrateur.

Cependant, vous pouvez mettre l’hôte en mode maintenance via ESXCLI en utilisant la procédure suivante:

  • Vérifiez si l’hôte est en mode maintenance.

esxcli –server=<server_name> system maintenanceMode get

  • Mettez hors tension chaque machine virtuelle exécutée sur l’hôte ESXi.

Vous lister toutes les machines virtuelles en cours d’exécution et récupérer l’ID de chacune d’elles en exécutant la commande suivante.

esxcli –server=<server_name> vm process list

NB : Pour éviter de mettre hors tension les machines virtuelles, vous pouvez également les migrer vers un autre hôte.

Pour arrêter le système d’exploitation, puis éteindre la machine virtuelle

esxcli –server=<server_name> vm process kill –type soft –world-id <vm_ID>

  • Placez l’hôte en mode maintenance

esxcli –server=<server_name> system maintenanceMode set –enable true

Do NOT follow this link or you will be banned from the site!