VMware


Nutanix Calm – Multi-Cloud & Applikations-Automatisierung

In einem Unternehmen hat ein Jeder eine Aufgabe zu erledigen, für die er auch persönlich verantwortlich ist und an der auch oft der Erfolg gemessen wird. Und was kann hier frustrierender sein, als auf andere zu warten, um besagte Aufgabe zu erledigen? Unter Umständen Stunden, Tage, oder gar Wochen?

Das ist durchaus oft der Fall, wenn es um die Bereitstellung von IT-Ressourcen, wie beispielsweise Applikationen oder einfach nur virtuelle Maschinen geht. Oft müssen mühsam Tickets von Hand bearbeitet werden, was als Konsequenz auf beiden Seiten Frust hervorrufen kann. Vor allem in Zeiten in denen beispielsweise Entwickler in nur wenigen Tagen ein neues Feature entwickeln wollen und danach die Infrastruktur, welche dazu genutzt wurde, wieder eingerissen werden soll, ist es fatal, wenn die Bereitstellungsdauer länger als die Nutzungsdauer ist. Und so ist es wenig verwunderlich, wenn die „Schatten IT“ kontinuierlich überhandnimmt und die benötigten Ressourcen, z.B. in der Public Cloud abgerufen werden. Ich möchte damit nicht sagen, dass es nicht viele gute Use Cases für die Pulic Cloud gibt und diese verteufeln, sondern eher, dass diese dann bewusst genutzt werden sollte, mit entsprechender Kostenkontrolle & einem ausgeprägtem Sicherheitsbewusstsein.

Aber warum scheitern scheinbar so viele Unternehmen dabei, mit der Public Cloud in Sachen Self-Service und Automatisierung Schritt zu halten?

Was meine persönliche Erfahrung betrifft, so ist einer der wohl größten Faktoren, die Komplexität die mit der  Automatisierung selbst einhergeht, diese ans Laufen zu bekommen und im weiteren Verlauf auch entsprechend einfach betreiben zu können. Sprich, viel Zeit und Energie geht bereits verloren, die dafür notwenige Infrastruktur zu schaffen.

Und genau hier setzt Nutanix mit mehreren Komponenten an. Hyper-Converged Infrastructure (HCI) ist dabei nur der grundlegende IaaS „Building Block“, welcher die zugrundeliegende Infrastruktur vereinfacht und somit viele Stellschrauben und Reibungsfläche zwischen IT-Silos beseitigt. Doch um Ressourcen in Minuten bereitstellen zu können, bedarf es weit mehr. Ein Portal für den Self-Service Portal (SSP), Rollenbasierter Zugriff, uvm. Und genau hier kommt Nutanix Calm ins Spiel.

Nutanix Calm ist die integrierte Applikations-Automatisierung, welche es erlaubt, ganze Applikationen, oder auch einfache VMs, den Anwendern im Self-Service-Verfahren bereitzustellen. Ganz gleich ob lokal on-premises im eigenen Rechenzentrum, oder in der Public Cloud, bei den gängigen Providern wie AWS, GCP und Azure. Was auch zeigt, dass es hier nicht um einen Kampf lokal vs. Cloud geht, sondern darum eine Plattform für alle Clouds zu schaffen um die Workloads in die beste dafür geeignete Cloud zu provisionieren.

Nun stellt sich zunächst die Frage, wieviel Aufwand denn wieder dahinterstecken mag, diese Lösung bereitzustellen. Und die Antwort auf diese Frage zeigt deutlich, wie sich Nutanix von bisherigen Lösungen unterschiedet. Nutanix Calm „lebt“ in Prism Central und ist dort nativ integriert. Sprich rollt man Prism Central aus, was bei Nutanix Kunden typischerweise immer der Fall ist, da damit auch erweitere Funktionen für die zentrale Infrastrukturverwaltung einhergehen, z.B. um mehrere verteilte Nutanix Cluster zu veralten, ist Calm nur einen Klick entfernt, ganz nach der Nutanix “1-Click” Philosophie. Wichtig ist auch an dieser stelle zu erwähnen, dass Calm damit auch in den 1-Click Upgrades von Prism Central integriert ist und damit bequem auf dem neusten Stand gehalten werden kann.

 

Danach ist Calm einsatzbereit. Es bedarf also nicht wochenlanger Vorarbeit und Experten, nur um die Automatisierungs-Lösung zu implementieren. Jetzt kann zum Beispiel damit begonnen werden, Projekte anzulegen, in denen (AD/LDAP) Benutzer und deren Rollen innerhalb eines Projekts definiert werden. Die IT kann entscheiden, ob Sie die vordefinierten Applikationen (Blueprints) über den so genannten Marketplace Manager freigeben und somit im Marketplace veröffentlichen will, oder ob sie doch lieber eigene Applikationen definiert und veröffentlicht. Ganz gleich, der Marketplace dient als zentrale Anlaufstelle für den Self-Service der Benutzer, um von dort Applikationen selbstständig zu provisionieren.

Auch besteht die Möglichkeit, ganz einfach, mehrere Clouds anzubinden, die dann als Zielplattform für die Provisionierung genutzt werden können. So entsteht eine Control Plane, wo in Zeiten von „Multi-Cloud“ eine einfache zentrale Verwaltung möglich wird. Egal ob Nutanix AHV als Hypervisor, eine bestehende VMware vSphere Umgebung, oder auch wie angesprochen, die gängigen Cloud Provider. Hier wird alles unter einem Dach vereint.

In weiteren Blog Posts werde ich in die Einzelheiten einsteigen und alles Komponenten genauer erklären. Zum Abschluss hier noch ein kurzer Rundgang durch die einzelnen Teile von Calm.


ESXi shows false Memory Warnings / Alerts 3

It could happen that your ESXi host(s) show a „random“ memory error even if everything seems to be fine. These warnings or alerts can be caused by old log entries and need to be clear manually to fix the problem. But of course if you are not certain if this is maybe a real hardware issue, you should definitely raise an incident at the corresponding vendor and perform a hardware diagnosis.MemoryWarning

However resetting the sensors or just updating won’t help here, you will need to perform the following steps:

  1. Switch the view from “Sensors” to “System event log”
  2. Reset the event log
  3. Switch the view from “System event log” to “Sensors”
  4. Perform an update to check if the warning disappears
  5. If it didn’t work, try to reset the sensors and update again
  6. If this didn’t work either, login to the host and restart the management agents: services.sh restart

This fixed the problem for me and I hope it helps to save you some time.


Final thoughts about my VSAN experiences

To wrap up my VSAN series I want to share my final thoughts with the community. Please feel free to comment and share yours!

All experiences I’ve made with VSAN are only based on my LAB with the minimum deployment of just three hosts and without any real world workload but I would say I’m able to rate the overall impressions I got.

In my case the setup itself was quite simple because I already had a vCenter server running but in case of a green field deployment the provided boot strap process is maybe a bit cumbersome but no big deal.

The policy based management in general is really pleasant and offers flexibility to assign different policies to different workloads or even different VMDKs on a single VM.

The way VSAN handles problems/outages is good but it also has the potential to cause some trouble if you don’t follow the recommendation to set a proper host isolation response. Please see my “Working with VSAN – Part II” post for details.

The lack support for stretched cluster deployments and large 62TB VMDKs is a bit disappointing but I hope it won’ take too long until these features make it into the product.

From a performance perspective I won’t rate it without having any real experience from a productive environment but I can rate the way it scales, which is quite nice. I would always recommend to select a chassis which allows future SSD/HDD expansions. Personally I favor the Dell PowerEdge R720 XD which offers support for up to 24 HDDs, redundant SD card to install the hypervisor, sufficient computing recourses and enough slots to add HBAs, RAID controllers or Flash cards. I think really important is the ability to add hosts which do not contribute storage to the VSAN cluster. In my lab I was not able to feel the difference between a VM running on a host with or without a local copy of the VM data.

But please be realistic, if your “working set” doesn’t fit into the SSD cache and I/Os need to be served from disk(s), this can impact the application performance. Many people I’ve talked to were wondering why VMware doesn’t let customers the choice to use RAIDs instead of single disk drives to speed up disk operations. I don’t know if there is a technical reason behind this requirement or just the vision of using storage in a more efficient way.

When it comes to networking probably even if 1 GbE will be sufficient for smaller deployments but you also have the ability to mitigate potential bottlenecks by using multiple network adapters to handle the VSAN workload.

I’ve also talked to some VMware folks who don’t see VSAN as a 1:1 replacement for classic SANs yet. In the end we agreed that it heavily depends on the planned use case and the expected workload. Probably a huge IO monster database with hundreds of GB or even TB is not the best use case for VSAN, just keep that in mind.

However I indeed see it for customers which are running smaller environments with reasonable workloads to “replace” entry level SAN solutions. The huge benefit is the simplified management which enables admins to work in their well-known environments like Ethernet networking and vSphere.

But all that glitters is not gold. What really annoyed me was a problem with the VM Storage Policies or actually with the VSAN Storage Providers. There is a known Issue with vSphere 5.5 Update 1. In my opinion this is not supposed to happen when releasing an update and making such a hyped solution GA. To cut some corners and to speed up fixing the issue I moved all my hosts to a new VMware vCenter Server Appliance, which was no problem for VSAN itself.


Working with VSAN – Part IV

To continue my “Working with VSAN” series, this time I want to challenge the scalability (at least what was possible within my lab). But see yourself.

Performance scaling by adding disk groups

To see how VSAN scales when adding disks I did the following tests:

IOMeter @ 32 QD, 75/25 RND/SEQ, 70/30 R/W, 8KB in combination with different disk group and VM storage policy settings. But it’s actually not about the total values or settings, it’s about to show the scalability. Not to mention that the SSD used are pretty old (1st GEN OCZ Vertex) and differ in performance!

RUN1

Failures to tolerate (FFT): 0

VMDK Stripe: 1

FTT0_ST1

FTT0_ST1_IOM

RUN2

Failures to tolerate (FFT): 0 – So still on one host…

VMDK Stripe: 2 – … but on two disk groups!

FTT0_ST2 FTT0_ST2_IOM

To be able to combine multiple stripes like shown above with FFT > 0, you will need multiple disk groups in each host to get the performance. In my case I just got a single host with two disk groups, so I was not able to perform the same test with a FFT = 1 policy.

Changing VM Storage Policies

To wrap up this post I want to mention that during my tests I’ve always used the exact same VMDK and so I had to change the policy multiple times. Of course it took some time till VSAN moved the data around to that it was compliant with the policy. But it worked like a charm and I though it is also worth mentioning!

But what about the network?

Multiple VMKernel Interfaces 

In case you are planning to run VSAN over a 1GbE network (which is absolutely supported), multiple VMKernel interfaces could be a good way to mitigate a potential network bottleneck. This would enable VSAN to leverage multiple 1GbE channels to transport data between the nodes.

To be able to use multiple VMKernel ports you will need to keep in mind to use different subnets for each VMK and to always set a single vmnic as active and all others to stand-by.

ActStbyNic 2VSANVMK

To see how this would scale I moved a virtual machine to a host who had no data stored locally of that particular VM, so that all the reads (& writes) had to traverse the network.

2VMsWithLocalwitnessI also had setup the VSAN networking a couple of day before so I started with the desired multi VMK setup und were quite happy with the results.

FTT1_ST1_esxtop_2VMK FTT1_ST1_IOM_2VMK

Then I disabled VSAN on the second VMKernel and also moved the vmnics down to be in stand-by only. The result were as expected, VSAN were just using a single vmnic.

FTT1_ST1_esxtop_1VMK FTT1_ST1_IOM_1VMK

 To verify these results I wanted to switch back to the multi VMKernel setup but for some reason I wasn’t able to get it back to work again. I moved the vmnic up to be active again (as depicted above) and re-enabled VSAN traffic on the second VMKernel interface (VMK4). But since then I was unable to see VSAN traffic across both NICs again. When I disable VSAN traffic on the first VMKernel (VMK3) it switches to the second interface (VMK4) which tells me that the interfaces are generally working. At this point I’m a bit clueless and asking you guys, have you already tried this setup? What are your results? Am I missing something or did I misunderstood something? Are there any specific scenarios where the multi VMK kicks in? I would love to get some feedback!