> Data > Build 2015 et Ignite 2015 : les données sont à l’honneur

Build 2015 et Ignite 2015 : les données sont à l’honneur

Data - Par Sabine Terrey - Publié le 07 mai 2015
email

Rencontre avec Damien Cudel, Chef de Marché Big Data & Business Intelligence chez Microsoft France, qui revient sur les annonces combinées Microsoft Ignite et la Build.

Build 2015 et Ignite 2015 : les données sont à l’honneur

Trois grands volets d’annonces, autour de la base de données on-premise SQL Server 2016, des solutions de bases de données transactionnelles dans le Cloud, et des entrepôts de données et solutions Big Data avec l’intégration de fonctionnalités liées à l’analytique.

Des bases de données à la BI sans omettre le Big Data et le machine learning, il y en a pour tous !

Examinons dans un premier temps, l’arrivée de SQL Server, prochaine génération, en 2016, avec un focus particulier autour de trois piliers à savoir la haute performance, l’intégration de fonctionnalités analytiques ou d’apprentissage statistique dans la base de données, et les scénarios de type Cloud hybride avec des fonctionnalités entre une base de données déployée on-premise et son extension dans le Cloud.

 

Sur le volet Cloud hybride, avec la fonction Stretch table « l’idée est d’avoir une base de données dont les tables sont stockées à la fois en local mais étendues dans le Cloud » explique Damien Cudel. Il ne s’agit pas ici simplement du stockage d’une table on-premise et dans le Cloud mais vraiment d’une extension de la capacité de calcul sur cette table. 

 

Avec la solution Revolution Analytics acquise récemment par Microsoft, on assiste à l’intégration des capacités de machine learning et l’intégration de scripts R dans SQL Server, « ici, l’intérêt, pour les  clients sera d’exécuter des algorithmes au plus près des données » commente Damien Cudel. Côté performances, ce sera la première base de données du marché à combiner deux technologies in-memory, pour l’aspect transactionnel et l’aspect analytique, « ces deux technologies seront intégrées dans SQL Server 2016, ce qui est avantage réel pour le client ».

 

 Dernier élément lié à la sécurité, la fonctionnalité Transparent Queryable Encryption fournit un service d’interrogation des données cryptées et ce, sans que celles-ci ne soient décryptées sur le serveur. La preview de SQL Server est prévue cet été.

Quant aux annonces au cours de la Build 2015, retenons en quelques-unes.

Une évolution de SQL Database permet à des éditeurs de logiciels de gérer des pools de bases de données sans avoir une idée de l’usage qui va en être fait (avec possibilité d’encaisser des pics de charge). Le système ajoute ainsi des bases de données de façon dynamique et transparente pour les applications, au travers de SQL Database pool (ou Elastic Scale en preview). « Cette fonctionnalité est très intéressante pour toutes les entreprises qui ne peuvent pas prédire à l’avance le profil d’activité sur les bases » ajoute Damien Cudel.

Autre annonce, avec Azure SQL Datawarehouse, les clients peuvent déployer en quelques minutes une solution de gestion d’entrepôts de données massivement parallèle. Après Analytic Platform System (APS) on-premise, voici aujourd’hui Azure SQL Datawarehouse dans le Cloud. « Gros avantage de cette offre, on découpe le stockage, le client paie le stockage dans Azure, mais s’il n’utilise pas son entrepôt de données massivement parallèle, il le met en pause et ne paie plus le compute, contrairement aux solutions alternatives».

Enfin, Azure Data Lake. Les entreprises disposent de plus en plus de données notamment dans des scénarios d’Internet des Objets en provenance d’objets connectés. Les volumes, déjà considérables, vont augmenter, « avec Azure Data Lake, nous proposons une capacité de stockage quasi-infinie sans limitation à la fois sur la quantité de fichiers à déverser, sur le nombre, le volume, la taille de fichiers, c’est un environnement hautement optimisé pour faire de l’analytique et du Big Data » précise Damien Cudel. Cet environnement supporte un protocole d’accès aux données, HDFS (Hadoop Distributed File System), aussi n’importe quelle plate-forme Big Data du marché peut donc s’interfacer avec celle-ci, « Azure Data Lake devient le stockage naturel pour tous les scénarios de stockage de données massif et sur lesquels on veut faire de l’analytique ».

 

 

 

Téléchargez gratuitement cette ressource

L’optimisation réseau en 6 atouts clés

L’optimisation réseau en 6 atouts clés

Quelles sont les 6 atouts clés d'un réseau 100% cloud, évolutif et sécurisé ? Faites évoluer vos solutions IT d'entreprise, bénéficiez d’une infographie exclusive pour activer ces nouvelles solutions technologiques.

Data - Par Sabine Terrey - Publié le 07 mai 2015