La nouvelle mouture de SQL Server est déjà sur les rails.
SQL Server 2014 fonce vers le temps-réel

Alors que l’édition 2012 a été lancée il y a 14 mois, Microsoft profite de sa convention TechEd pour annoncer son successeur.
Connu jusqu’à maintenant sous le nom de projet « Hekaton », le traitement transactionnel (OLTP) en mémoire sera intégré à la solution de base de données pour booster les performances applicatives et entrer dans l’ère du « business en temps-réel ».
Une intégration qui selon Microsoft couronne plusieurs années de travail et de collaboration entre les ingénieurs de la division Data Platform chez Microsoft et les chercheurs de Microsoft Research. « La puissance des processeurs modernes, la disponibilité, l’ampleur de la mémoire et l’avènement des disques SSD sont quelques-uns des changements architecturaux qui ont bousculé nos postulats sur le design des bases de données », explique Quentin Clark, Vice-président en charge de la Plateforme de donnés chez Microsoft.
Les utilisateurs n’auront toutefois besoin ni de hardware spécifique ni d’outils complémentaires pour utiliser les capacités de calcul In-Memory. Microsoft assure que ses clients pourront migrer directement leurs applications existantes vers la nouvelle plateforme pour en augmenter les performances.
Les liens avec Windows Azure seront également renforcés avec des fonctionnalités de sauvegarde, de plan de reprise après sinistre et de migration de machines virtuelles basées sur la plateforme Cloud de Microsoft. Ce, afin de favoriser la mise en place d’infrastructures hybrides. Des améliorations vont par ailleurs être apportées à Always-On, notamment pour le support de déploiements à grande échelle.
La firme de Steve Ballmer n’oublie pas de glisser un mot sur le Big Data qu’elle considère comme un des deux éléments fondamentaux qui ont piloté la conception de SQL Server 2014.
« L’intégration d’informations en temps-réel, les nouveaux formats et volumes de données, les signaux externes aux systèmes métiers, l’évolution des techniques d’analyse ou encore les expériences plus fluides de collaboration et de visualisation sont des éléments importants de cette transformation », indique Quentin Clark. Un changement que Microsoft propose d’accompagner grâce à la puissance de l’informatique en nuage, deuxième élément sur lequel sera axée la nouvelle plateforme. Plus de détails seront dévoilés avec la Preview prévue dans le courant du mois de juin.
Téléchargez cette ressource

Percer le brouillard des rançongiciels
Explorez les méandres d’une investigation de ransomware, avec les experts de Palo Alto Networks et Unit 42 pour faire la lumière dans la nébuleuse des rançongiciels. Plongez au cœur de l’enquête pour comprendre les méthodes, les outils et les tactiques utilisés par les acteurs de la menace. Découvrez comment prévenir les attaques, les contrer et minimiser leur impact. Des enseignements indispensables aux équipes cyber.
Les articles les plus consultés
- Les projets d’intégration augmentent la charge de travail des services IT
- 10 grandes tendances Business Intelligence
- Intelligence Artificielle : DeepKube sécurise en profondeur les données des entreprises
- Databricks lève 1 milliard de dollars !
- Stockage autonome, Evolutivité & Gestion intelligente, Pure Storage offre de nouvelles perspectives aux entreprises
Les plus consultés sur iTPro.fr
- Renouvellement des certificats SSL tous les 45 jours : une mise en œuvre impossible sans automatisation ?
- Palo Alto Networks s’engage sur la cyber solidarité
- Recrudescence des cyberattaques pilotées par l’IA
- Quelles salles de réunion renforcent la dynamique et la confiance d’équipe ?
- L’intelligence collective dans l’ère numérique
Sur le même sujet

10 grandes tendances Business Intelligence

ActiveViam fait travailler les data scientists et les décideurs métiers ensemble

Intelligence Artificielle : DeepKube sécurise en profondeur les données des entreprises

Les projets d’intégration augmentent la charge de travail des services IT

La blockchain en pratique
