The Doppler Quarterly (DEUTSCHE) Sommer 2016 | Page 82

• Genomikforschung Workloads , anhand derer Forscher immer größere Mengen an Populations- und Genomdaten auswerten können , um die Zeit bis zur Markteinführung neuer Behandlungsmethoden und diagnostischer Routinen weiter zu verkürzen .
• Modellierung finanzieller Risiken Ermöglicht Finanzinstituten eine schnelle Risikobewertung , eine effiziente Entscheidungsfindung und die Einhaltung von Branchenvorschriften .
• Rendering Ermöglicht die schnelle Skalierung von Ressourcen , um die Produktion von Spezialeffekten für die Filmproduktion zu unterstützen , und versetzt Designer in die Lage , Produkte auf neue und interaktive Weise zu modellieren .
Azure hat umfassende Investi tionen getätigt , um sicherzustellen , dass für die Unterstützung von HPC-Workloads ganz spezifische Technologien zur Verfügung stehen . Diese Technologien sind auf schnelle Bereitstellung , hohe Leistung und Skalierbarkeit ausgerichtet .
Zu den wichtigsten Leistungsmerkmalen zählen :
• Hybrid HPC-Paket Viele HPC-Benutzer beginnen mit hybriden Modellen und gehen dann zu nativen Cloud-Implementierungen für alle HPC-Ressourcen über . Mit dem Hybrid PC-Paket von Azure können Head-Knoten vor Ort konfiguriert und Jobs an Azure Compute-Knoten verteilt werden . Mit diesem Modell können große Workloads sehr schnell skaliert und die Kosten minimiert werden . Dadurch müssen weniger Knoten für die Nutzung vor Ort angeschafft werden .
• RDMA und MPI Remote Direct Memory Access ( RDMA ) ermöglicht durch die Verwendung von Lightweight-Protokollen eine sehr schnelle Kommunikation zwischen den Knoten . Die Kopplung von RDMA mit der im Microsoft HPC Pack enthaltenen MPI ( Message Passing Interface ) erlaubt eine hocheffiziente Kommunikation zwischen Knoten bei kurzen Latenzzeiten .
• Azure Resource Manager Resource Manager ermöglicht die Erstellung von Vorlagen , die sich über mehrere Azure-Services erstrecken , um die Bereitstellung , Konfiguration und Überwachung zu automatisieren . Resource Manager ist eine Schlüsselkomponente jeder HPC-Implementierung auf Azure , die die Einheitlichkeit in den installierten Instanzen sicherstellt und nach fehlgeschlagenen Ressourcen sucht , die eine erneute Implementierung erfordern .
• Zukünftige GPU-Instanzen Graphics Processing Units ( GPUs ) stellen eine sehr große Anzahl an Prozessorcores für die parallele Ausführung bestimmter Workloads zur Verfügung . Viele Workloads können von der schnelleren Verarbeitung durch GPUs profitieren . Zur Unterstützung dieser Workloadverarbeitung hat Microsoft die zukünftige Verfügbarkeit von GPU-Instanzen auf Azure angekündigt .
Microsoft arbeitet mit einer großen Anzahl an Anbietern von Branchensoftware zusammen , die kommerzielle Anwendungen verkaufen , die für die Ausführung auf Windows-basierten Hosts getestet und unterstützt wurden . Diese Anwendungen werden üblicherweise in Azure eingesetzt , um Kunden die Möglichkeit zu geben , ihre Kapazitätsanforderungen schnell zu skalieren , wenn sich die Benutzernachfrage ändert . Azure bietet eine skalierbare Plattform für die Ausführung von HPC-Workloads mit zusätzlichen Funktionen für automatisiertes Management und hohe Leistung .
80 | THE DOPPLER | SOMMER 2016