The Doppler Quarterly (DEUTSCHE) Sommer 2016 | Page 81
Tool im Rahmen seiner Machine Learning-
Arbeiten und hat es als generische Open-Source-
Analyseplattform, die auf viele verschiedene
Domänen und Problemstellungen angewendet
werden kann, zur Verfügung gestellt.
• TPU – Ziel von Google war es, die Tensor Pro-
cessing Units (TPU) in seinen Rechenzentren zu
entwerfen und implementieren, um die
Machine Learning-Workloads zu beschleuni-
gen. Eine TPU ist ein kundenspezifischer ASIC,
der speziell für Machine Learning optimiert
wurde.
Google baut weiterhin sein Partner-Ökosystem aus,
wobei einige Partner ihren Schwerpunkt auf HPC
gesetzt haben. Einer der zentralen Partner ist Cycle-
Azure bezeichnet HPC-orientierte Workloads als Big
Compute. Dies dient der Unterscheidung zwischen
prozessor-
und
verbindungsintensiven
HPC-
Workloads und Big Data-Workloads, die im Vergleich
zu HPC sehr unterschiedliche Kommunikationsmus-
ter aufweisen. Die Azure Big Compute-Funktionalität
deckt mehrere spezifische Bereiche ab.
Computing, der eine Lösung anbietet, mit der die
Verarbeitung von HPC-Workloads auf einer Vielzahl
von Cloud-Provider-Lösungen wie Google mit ent-
sprechender einfacher zeitlicher Planung ausgeführt
werden können.
Während AWS und Azure umfassende IaaS-Funktio-
nalität bieten, die durch HPC-spezifische Technolo-
gien ergänzt wird, hat Google mit Google Genomics
und Google Machine Learning den PaaS-Weg (Plat-
form as a Service) eingeschlagen. Auf diese Weise
können Unternehmen große, komplexe Datensätze
analysieren, ohne IaaS-Services bereitstellen, konfi-
gurieren und verwalten zu müssen. Der Ansatz von
Google ist einzigartig und wird definitiv auf weitere
Bereiche ausgeweitet werden.
• Konstruktionsentwurf und -simulation
Simulationen, einschließlich Finite-Elemen-
te-Analyse, Strukturanalyse und numerische
Strömungssimulation, die üblicherweise Pro-
duktdesign und -validierung unterstützen.
SOMMER 2016 | THE DOPPLER | 79