The Doppler Quarterly (DEUTSCHE) Frühjahr 2017 | Page 43

Ergebnisse wie diese fördern das ultimative Ziel der schnellen Innovation .
AbstractAI ( Abstract ) mit Sitz in Los Angeles entwickelt Software und Services . Gemeinsam mit Brainitch , einer weiteren in Los Angeles ansässigen Firma , die personalisiertes 1:1-Marketing für Künstler auf Facebook Messenger und ähnlichen Plattformen anbietet , erstellte das Unternehmen einen Bot für die Geburtstagsfeier von Laidback Luke ( einem niederländischen Künstler im Bereich der elektronischen Musik ). Ihre anfängliche Legacy-Architektur konnte die Verkehrsspitzen nicht verarbeiten . Auch diese Unternehmen nutzten dann das Serverless Framework . Damit implementierten sie die neue Architektur in zwei Wochen neu und erzielten eine Kostensenkung von 95 Prozent , während sich die Skalierbarkeitsprobleme in Luft auflösten .
Weitere Anwendungsfälle für Serverless Computing
Es gibt heute viele Anwendungsfälle für die Nutzung von Serverless Computing . Sehen wir uns ein paar an .
Einer der ersten Fälle , die wir bei CTP implementierten , war eine serverlose Build / Deploy-Pipeline , die den herkömmlichen Jenkins-Server für CI / CD umging . Wir nutzten den neuen Bitbucket Pipeline-Service von Atlassian für die Erstellung . Die Build-Artefakte wurden in AWS S3 gespeichert . Dies löste eine AWS Lambda-Funktion aus , die die Implementierung verarbeitete ( siehe Abbildung 1 ). Eine zweite Iteration nutzte Terraform-Skripte , die direkt aus Bitbucket Pipelines aufgerufen wurden . Damit ließ sich der Prozess weiter optimieren . Angesichts der Wichtigkeit des Build / Deploy-Prozesses für die Produktivität und Geschwindigkeit werden wir weiter experimentieren und Konzepte optimieren , durch die unnötige Kosten und Arbeiten für das Infrastrukturmanagement entfallen .
Abbildung 1 : anfängliche serverlose Build / Deploy-Pipeline
Pipelines für die Datenverarbeitung sind ein weiterer Fall , bei dem Serverless Computing seine Stärken ausspielen kann . Abbildung 2 zeigt ein Beispiel aus Werner Vogels Blog . Datenpipelines können aus verschiedenen Cloud-nativen Komponenten zusammengesetzt sein . Dazu zählen Datenaufnahme ( d . h . AWS Kinesis ), Verarbeitung ( d . h . AWS Lambda ), Analyse ( d . h . AWS EMR ) und Speicher ( d . h . AWS S3 , DynamoDB oder Redshift ). Serverlose Verarbeitungskomponenten eignen sich hervorragend für ETL-Funktionen und lassen sich einfach verketten , um mögliche Einschränkungen hinsichtlich der Ausführungsdauer zu vermeiden .
FRÜHJAHR 2017 | THE DOPPLER | 41