The Doppler Quarterly (FRANÇAIS) Été 2018 | Page 12

applications cloud natives pour aider les clients de l’organisation à moderniser leurs processus. Phase préparatoire CTP a combiné une conception d'expérience de niveau agence à des règles de bonne pratique d'adoption afi n d’imaginer et développer une solu- tion offrant aux clients une expérience exception- nelle, ainsi qu'un déploiement du cloud qui optimise à la fois les performances et les coûts. Dans un premier temps, CTP a dirigé un atelier de découverte de conception d’expérience (XD) avec des acteurs clé (notamment des membres de la direction possédant une riche expérience secto- rielle), afi n de défi nir des objectifs clés et recenser les défi s auxquels l’entreprise de médias était confrontée. CTP a identifi é quelques acteurs incon- tournables (« power players », vétérans, fi gures de proue du secteur et directeurs des programmes) animés par des approches et possédant des expé- riences diversifi ées en matière d’analytique et de technologie. Nous avons organisé des entretiens et des tests d'utilisateur en impliquant ces grands acteurs et en cherchant à mieux comprendre leur existence au quotidien. Leur dénominateur com- mun, c'est qu'ils avaient tendance à traiter les don- nées de manière incohérente et à les considérer généralement comme un outil de confi rmation secondaire de leurs hypothèses. Il leur manquait un moyen de visualiser aisément les données relatives à la diffusion d'une chanson par rapport à d'autres indicateurs clés et profi ls d'audience interdépendants. CTP est ensuite passé à la phase de prototypage. L’équipe a recueilli des lignes de données par l'inter- médiaire de pages Google Sheets et de fi chiers JSON afi n de concevoir un modèle de visualisation de la trajectoire d'un titre. Nos experts ont exploré une diversité d’options de visualisation des données et mis au point une interface utilisateur basée sur des cartes géographiques, des histogrammes et des courbes de tendance. Puis, un fl ux de travaux évolué a été créé afi n de mesurer les cycles de vie des artistes et des chansons par voie comparative. CTP a découvert que le plus important défi était celui du manque de « données propres », dans la mesure où leur processus de génération était inégal. Les frontières des marchés et les fenêtres tempo- 10 | THE DOPPLER | ÉTÉ 2018 relles de vente, par exemple, se caractérisaient par un manque de cohérence entre les canaux de vente au détail, de diffusion et de digitalisation. Pour extrapoler les connaissances approfondies à partir de plateformes multiples, CTP a envisagé différentes options visant à réarchitecturer les stratégies de données existantes. Nos ingénieurs ont aidé le client à dimensionner un « pool » de données préfi gurant l'élaboration d’indicateurs standard sur lesquels leurs équipes pourraient se reposer par la suite. Parallèlement à cela, en exploitant les feuilles de calcul Excel existantes pour réinventer l'expérience utilisateur de l'application, CTP a mis en place un mécanisme secondaire de validation des données confi é aux vétérans de l’industrie. L'objectif de cette confi guration était de permettre une familiarisation avec les modèles de données, réduire la complexité et cultiver l’intelligence au fi l du temps. Sur la base des enseignements retirés, l’équipe a réduit et sim- plifi é l’interface utilisateur de manière à fournir les bonnes données au bon moment et à la bonne per- sonne, dans le format et sur le support ou le canal approprié. L’application Music Analytics Dashboard s'appuie sur une architecture classique à trois niveaux com- prenant une couche de présentation, une couche métier et une couche de données. La couche de pré- sentation est une application AWS Elastic Beanstalk exécutant un module node.js et bâtie autour de composants d'architecture React. La couche métier, conforme à la tendance d’architecture sans serveur a été développée via la passerelle d’API Amazon et AWS Lambda, plus des composants d'autorisation personnalisés et une intégration à Active Directory Azure via son interface OAuth. La couche de don- nées est une instance AWS RDS à zone multi-dispo- nibilité utilisant le moteur PostgreSQL en raison de la nature relationnelle des données. Le pipeline ETL sans serveur MapReduce a été éla- boré à partir de composants sans serveur plutôt que Hadoop. Ses principales caractéristiques sont : l'abs- traction de l'ingestion de données connectée aux services FTP, S3, Google Cloud Storage, les bases de données SQL, les services SOAP, les partages réseau Windows et sources de données HTTP, les modules node.js pour toutes les fonctions ETL, ainsi que le streaming asymétrique entre les différents proto- coles de données.