[DE] PernixData Architect – Einsichten in die Blockgröße


In meinem letzten Post über die PernixData Architect Software, habe ich über die so genannten Drill-Down Charts geschrieben. Am Ende ging ich nicht darauf ein, was diesen Latenzpeak verursacht haben könnte. Und genau darum geht es in diesem Post.

Es war eine Latenzspitze, als auch ein zunehmender Durchsatz zu erkennen, jedoch nicht mehr.

Mittels des “Block Size Breakdown” ist es möglich die Metriken wie Latenz, IOPS als auch den Durchsatz in die individuellen Blockgrößen aufzuschlüsseln um zu erkennen, wie diese die Storage Performance der virtuellen Maschine beeinflusst.ArchitectLatencyBlockSize

Wie gut zu erkenne ist, war die Latenz der VMs dadurch definiert, wie lange es dauerte Blöcke >=256k zu verarbeiten.

PernixData Architect kann nicht nur den Einfluss auf die Latenz darstellen, sondern auch herunterbrechen, wie viele I/Os in einer gewissen Blockgröße erzeugt wurden, respektive wieviel Durchsatz mit welcher Blockgröße erzeugt wurden.ArchitectIOPSBlockSize ArchitectMBsBlockSize

Wie bereits in vorangegeben Artikeln erwähnt, stehen all diese Informationen entweder aggregiert auf Cluster Ebene oder auch individuell auf VM Ebene verfügbar. Diese detaillierten Einsichten über die Blockgrößen die eine Umgebung oder eine VM erzeugt, können in vielerlei Hinsicht hilfreich sein.

Ist das vorhandene Speichersystem in der Lage das IO-Profil der VM(s) in adäquater Zeit zu verarbeiten? Also stellt das System genügend Bandbreite zur Verfügung, sodass das die Workloads nicht unnötig lange auf die Verarbeitung der Lese- und Schreiboperationen warten müssen?

Mit PernixData FVP im Blick, helfen diese Informationen das optimale Beschleunigungsmedium auszuwählen. Beispielsweise ist eine normale SATA SSD in ihrem Durchsatz alleine schon durch das SATA Interface limitiert. Wohingegen PCIe Flash Karten eine wesentlich größere Bandbreite bieten und natürlich nicht zuletzt RAM, welcher die höchste Bandbreite bietet. Mit diesen Medien wäre es möglich den erhöhten Durchsatz Bedarf der VM(s) in angemessener Zeit zu verarbeiten.

Und darüber hinaus, sind diese Daten enorm Hilfreich um in Diskussionen mit den jeweiligen Fachabteilungen zu treten. Müssen gewisse Workloads in einer für das System problematischen Blockgröße erzeugt werden, oder gibt es hier auf Seiten der Applikationen Optimierungsmöglichkeiten?

Print Friendly, PDF & Email

Related Post

It's only fair to share...Tweet about this on TwitterShare on LinkedInEmail this to someone

Leave a comment

Your email address will not be published. Required fields are marked *