> Data > L’alliance SQL Server et appliances Bull

L’alliance SQL Server et appliances Bull

Data - Par Loïc Duval - Publié le 22 juillet 2011
email

Avec des partenaires comme BULL, Microsoft s’attaque aux marchés des grosses infrastructures et des grandes volumétries démontrant ainsi les qualités d’ouverture et de montée en charge de son moteur SQL Server dans le décisionnel.

L’offre SGBD/BI de Microsoft s’est construite au fil des versions de SQL Server avec une volonté affichée de démocratiser le décisionnel et de le rendre accessible à toutes les entreprises.

L’alliance SQL Server et appliances Bull

La présence de Bull aux côtés de Microsoft est tout sauf anodine. L’entreprise est notamment réputée pour servir les grosses entreprises et les administrations aux besoins de volumétries et de performances très importants. Elle est aussi l’un des grands intégrateurs de solutions Open Source comme le rappelle le Leitmotiv de la marque : « Achitect of an Open World ». L’adoption par Bull de SQL Server (et par voie de conséquence l’adoption de SQL Server par son exigeante clientèle) est à elle seule une démonstration, non seulement du potentiel technique du logiciel de Microsoft mais également de son ouverture et de sa facilité d’intégration dans tous les types d’infrastructure qu’elle soit ou non basée sur des technologies Microsoft.

SQL Server 2008 est bien davantage qu’un puissant moteur de base de données. C’est une offre complète et cohérente qui intègre en standard tous les outils décisionnels. Au fil de ses évolutions, et des records TPC, SQL Server s’est bâtie une solide réputation de « performeur » aussi bien en termes de bases de données transactionnelles que de bases décisionnelles. Aujourd’hui, avec SQL Server 2008 et le rachat récent de sociétés comme DATAllegro ou Stratature, Microsoft confirme sa volonté de devenir leader sur le marché du DataWarehouse.

Le décisionnel pour tous

La grande force de SQL Server 2008 et son principal atout est sans conteste sa faculté à s’adapter à (et apporter du décisionnel pour) tous les types de projets et tous les types de clients. « Avec SQL Server on sait adresser aussi bien les PME que les gros clients de type CAC40 ou multinationales » explique ainsi Bertrand Audras, architecte au MTC. « La démarche est la même pour tous les clients, seuls l’échèle et les délais varient ».

Un packaging très attractif

L’autre atout fondamental de SQL Server, c’est que l’ensemble du panel applicatif nécessaire à un projet Data Warehouse est fournit en standard : base de données OLTP, cube OLAP, ETL, connecteurs, parties Reporting et Reporting Ad-Hoc, intégration à Microsoft Office et outils d’intégration aux applications internes. Ce packaging, qui intègre tout, est associé à une politique de licences très agressive et imaginative. Microsoft a su faire évoluer sa politique de licences pour prendre en compte les évolutions multi-cœurs. C’est l’un des rares éditeurs à conserver un « pricing » au « socket » (autrement dit au processeur, quelque soit le nombre de cœurs). La licence au processeur physique permet de regrouper beaucoup d’activités décisionnelles (Data Warehouse, cubes, reportings, BI) et d’absorber beaucoup de traitements sur les mêmes ressources, ce qui limite le nombre de licences dont on a besoin et le TCO global de votre solution décisionnelle.

Mais pour Bertrand Audras, ce packaging intégré, outre ces aspects financiers, présente deux autres qualités fondamentales : « D’une part, on utilise les mêmes outils d’administration et de développement pour l’ensemble du projet Data Warehouse et Décisionnel. D’autre part, avec les derniers processeurs quadri-cœurs ou octo-cœurs, on bénéficie d’une belle réserve de puissance sur les Appliances ce qui permet à tout moment d’envisager l’enrichissement de la solution de départ avec de nouveaux applicatifs BI et des cubes OLAP, sans surcoût et sans contrainte de licences. La présence en standard de tous ces outils BI permet d’évaluer très rapidement la faisabilité et les besoins fonctionnels et de décider si on veut partir sur ces projets et ces outils ou au contraire de ne pas les utiliser sur tel ou tel projet. Il en découle une très grande souplesse qui évite de se retrouver bridé dans le développement d’un projet parce que, par exemple, on ne pourrait pas disposer d’un cube OLAP sans surcoût ».

Très grandes volumétries

Montées en charge, architectures hautement évolutives, très haute disponibilité, garanties de SLA, et très fortes volumétries sont désormais le quotidien de SQL Server 2008. Pour Frank Sidi, Lead Architect chez Microsoft, « nous avons assisté ces dernières années à une forte évolution vers le haut à la fois au niveau du système et au niveau de SQL Server. Un gros travail a été effectué depuis SQL  Server 2005 sur l’optimiseur, sur le moteur de stockage, sur la parallélisation, sur la gestion du threading et sur celle de la mémoire. On a aujourd’hui des clients avec des volumétries de 150 ou 200 To et des débits I/O jusqu’à 25 Go par secondes ».

Les atouts qui font la différence

Si SQL Server 2008 acquiert aujourd’hui une réputation d’acteur clé dans l’univers des Data Warehouse, ce n’est pas uniquement en raison de son packaging ou de l’attrait de sa politique de licences. C’est aussi et surtout grâce à ses qualités intrinsèques. Il intègre des technologies originales qui permettent l’élaboration de nouveaux scénarios d’implémentation et l’accession à des niveaux de performances exceptionnelles. Trois caractéristiques techniques font de SQL Server 2008 l’un des plus puissants moteurs de Data Warehouse du marché.

La compression

SQL Server 2008 offre la possibilité de compresser tables, index et partitions. Les gains réalisés dépendent des tables et des données qu’elles contiennent mais s’avère souvent spectaculaire sur les Data Warehouse. Officiellement, Microsoft annonce des taux de compression d’un facteur 2 à 5. Mais pour Frank Sidi, « les taux varient d’un facteur 2 à 20 selon la typologie des données d’après ce que nous avons pu rencontrer au MTC. Chez un récent client bancaire, on a implémenté un Data Warehouse sous SQL Server 2008 à partir de 10 To de données qui, une fois chargés dans l’entrepôt, ne pesaient plus qu’un seul Téraoctet grâce à ce mécanisme de compression! Il en résulte non seulement un gain de place, mais surtout un gain de performances très important car on élimine de façon drastique les Entrées/Sorties et on manipule donc beaucoup moins de blocs en mémoire. Ainsi, une compression d’un facteur 5 se traduit directement par 5 fois moins d’Entrées/Sorties ».
SQL Server 2008 propose également une fonctionnalité de compression des sauvegardes. Pour Bertrand Audras, là encore, il en résulte « non seulement une économie importante de stockage mais également en performances : comment on écrit beaucoup moins d’informations on divise par plus de deux le temps de sauvegarde ou de rechargement. Etant donné la volumétrie des Data Warehouse, c’est un atout important ».

Le partitionnement

Le partitionnement c’est la possibilité de segmenter, au sein d’un même objet, les données dans des espaces de stockages différents. Il en découle d’excellentes performances car les entrées-sorties sont réduites au stricte minimum : « Quand on parle de Data Warehouse on parle essentiellement d’accès à un grand volume de données et de balayage de tables. Tout ce qui permet d’éviter de balayer des données inutiles est un gain net et immédiat. Et en la matière, le partitionnement est un atout phare » explique Bertrand Audras.

Haute disponibilité

Le Data Warehouse est une application critique pour l’entreprise. Haute disponibilité et garantie des SLA ne peuvent être optionnelles. Pour assurer la continuité des services, SQL Server multiplie les technologies : clustering, database mirroring, réplication peer-to-peer, log shipping, ajouts de ressources à chaud, sauvegardes et restaurations en ligne, etc. Mais la technologie la plus différenciatrice et probablement la plus marquante dans un projet décisionnel et de Data Warehouse est sans conteste le gestionnaire de ressources. Bertrand Audras explique ainsi que « le ‘Resource Governor’ permet d’une part de garantir des ressources (donc de garantir que certains traitements prioritaires auront un accès prioritaires sur les ressources dont ils ont besoin) mais aussi de fixer des limites (en isolant les processus, on est certain d’avoir une bonne intelligence entre les différents traitements qui se déroulent au sein de la base de données). Cela permet de garantir des temps de réponses aux utilisateurs et de cantonner les traitements les plus lourds. C’est un atout clé en termes de stabilité des temps de réponse et de qualité de service ».

Téléchargez gratuitement cette ressource

Les 6 bonnes pratiques sur la protection des données

Les 6 bonnes pratiques sur la protection des données

Nouveau Guide thématique à l’intention des Directions informatiques. La Datasphere mondiale représente 40 Zo de données créées, dupliquées et enregistrées chaque année. La gestion et le stockage des données deviennent d’autant plus critiques que leur volumétrie ne cesse de croître et d’ici 2025, ce chiffre aura quadruplé. Découvrez dans ce nouveau guide les meilleures recommandations pour survivre dans l’univers de l’Infinite Data.

Data - Par Loïc Duval - Publié le 22 juillet 2011