Hébergement
Big Data

Sans maîtrise technique, la puissance de calcul n'est rien.
scroll
Big Data ? No big deal !

Vous l’avez peut-être appris à vos dépens ou grâce à votre expérience sur les projets Big Data. Si vous lisez ces lignes, vous savez pertinemment que l’hébergement est une des pierres angulaires de la performance des solutions Big Data.

Mais contrairement aux soupes, ce ne sont pas dans les vieux pots que l’on obtient les meilleures performances. Nous avons donc repoussé les limites de l’hébergement pour concevoir une offre dédiée aux projets Big Data. Cette offre s’adresse aux entreprises qui ont un projet Big Data défini et qui souhaitent :

  • Être intransigeantes sur les niveaux de performances
  • Déléguer les contraintes techniques pour se concentrer sur leurs jobs (et leurs métiers)
  • Challenger l’hébergement inclus dans les offres packagées

Nous savons que les projets Big Data sont sensibles et que les moindres changements peuvent être sources de complication voire de stress. C’est pourquoi nous vous accompagnerons à chaque étape de la construction de votre plateforme. Vous pourrez même la tester gratuitement pendant trois mois pour vérifier que tout fonctionne comme vous le souhaitez.

Envie de nous mettre à l’épreuve et constater par vous-même pourquoi nous sommes si sûrs de nous ?

01

L'offre

En théorie, les offres d’hébergement de solutions Big Data ne sont pas si différentes des offres d’hébergement haute disponibilité classiques. En théorie.

RGPD

Comme tout pacte de confiance, le RGPD marche dans les deux sens. Vous pouvez être sûrs que notre part du contrat est déjà remplie.

Bien évidemment, au vu de la nature sensible des données traitées dans le cadre de projets Big Data, notre offre est conforme aux exigences du RGPD. Toutes nos infrastructures, tous nos datacenters et toute notre équipe se trouvent sur le territoire français. Et comme nous appartenons au Groupe La Poste nous avons été soumis aux mises en conformité et audits de sécurité habituellement réservés aux grands groupes.

Périmètre d'intervention

Nous n’avons ni la prétention, ni la volonté de repenser en profondeur votre projet Big Data. Simplement intervenir sur ce que nous savons faire de mieux : faire en sorte que tout soit fonctionnel et opérationnel.

Nous prenons en charge les infrastructures ainsi que les logiciels qui vous permettent de piloter votre solution Big Data :

  • La plateforme et son interface d'administration
  • Une passerelle sécurisée d'accès pour injecter et collecter vos données
  • Des ressources supplémentaires pour vos applicatifs annexes : VM, stockage...

Pour répondre à nos standards d'exigence en matière de performances, nous prenons la main sur l’ensemble de la chaîne de valeur et notamment : le paramétrage, l’infogérance et le maintien en conditions opérationnelles.

Conception

Pour nous, la performance n’est pas un luxe, c’est une philosophie.

Chaque projet Big Data que nous menons bénéficie de notre approche et de notre expertise en matière de haute disponibilité et de performances. À tous les niveaux.

Notre approche de la performance pour les projets Big Data s’applique aux plateformes que nous concevons ainsi qu’aux passerelles et ressources que nous utilisons. Elle repose sur :

  • Des technologies de virtualisation et de conteneurisation pour optimiser l'utilisation des ressources
  • Un réseau très haut débit à faible latence
  • Un système de stockage distribué très haute performance basé sur la technologie Flashblade de notre partenaire Pure Storage

Évolutivité

Nous aurions pu choisir notre modèle d’évolutivité parmi les exemples qui existent déjà. Nous avons préféré en créer un exemplaire.

Trop souvent, nous constatons que les hébergeurs traditionnels considèrent l'évolutivité des projets Big Data comme étant avant tout une question de prévisions des besoins en ressources. Des besoins pourtant difficiles à anticiper. Ces mauvais calibrages sont souvent synonymes d’une onéreuse course à l’armement où chaque évolution est synonyme d’ajout d’un ou plusieurs serveurs supplémentaires.

Chez Oxeva nous avons préféré la voie de l'adaptabilité réelle à vos besoins de consommation. Nous avons décorrélé la puissance de calcul et le stockage pour vous permettre de faire évoluer votre plateforme selon vos besoins réels. Tout simplement.

Schema
02

Méthodologie

Parce que nous préférons que vous testiez notre solution avant même d’envisager toute forme de contractualisation, nous avons conçu une méthodologie qui vous rendra fiers d’avoir vendu votre âme aux fiables.

Cadrage

Nous n’empiétons pas sur vos jobs, mais ce n’est pas pour autant que nous ne nous intéressons pas à vos enjeux métiers.

Cette étape n’a pas pour objectif de remettre en question les contours de votre projet mais d’avancer de manière éclairée dans la conception de votre plateforme. Ce qui sous-entend :

  • Comprendre vos enjeux métiers
  • Connaître les cas d’usages
  • Valider la maturité de votre projet
  • Identifier l’écosystème technique de votre projet

Ni plus, ni moins.

POC

Comme nous savons que les projets Big Data sont sensibles et que nous avons confiance en nos infrastructures ainsi qu’en nos équipes, nous proposons systématiquement une phase de POC (Proof Of Concept) gratuite de 3 mois. Oui, vous avez bien lu.

Pour réaliser ce POC, nous répliquons l’environnement que vous utilisez à isopérimètre et fixons avec vous des indicateurs de performance permettant de définir si l’essai est concluant ou non.

Nous travaillons avec des éditeurs référents en matière de pilotage de solutions Big Data. Néanmoins, si vous travaillez sur d’autres solutions, il y a des chances pour que nous les connaissions également. N’hésitez pas à nous contacter pour en discuter.

Mise en production

Probablement la seule étape où nous ne vous réservons aucune surprise et à laquelle il est préférable de ne pas en avoir non plus.

Si le POC s’avère satisfaisant sur la base des critères d’évaluation définis en amont, la plateforme est répliquée à l’identique pour une mise en production rapide et… c’est tout. L’aventure peut commencer.

En revanche, si le POC ne vous convient pas, nous ne doutons pas que nous resterons sûrement bons amis.

03

Support

Notre offre est « all inclusive ». Nous ne facturons pas du « temps homme » mais nous nous engageons sur un résultat. Alors nous avons plutôt intérêt à ce que tout fonctionne. Tout le temps.

DataOps

Le DataOps, c’est l’équivalent du DevOps, façon Big Data.

Notre support commence là où s’arrêtent vos jobs. Concrètement nous sommes le soutien technique et opérationnel de vos Data Scientists afin que l’exploitation de votre solution Big Data soit votre unique préoccupation.

À ce titre, nous intervenons et garantissons la disponibilité :

  • Des serveurs (puissance de calcul)
  • Du réseau
  • De l'interconnexion avec les tiers
  • Du stockage

Et peu importe l’heure et le jour, nous serons sur le pont dès que vous aurez besoin de nous.

Schema

SLA

Nous avons le même niveau d'engagement et d’exigence sur l'ensemble de nos offres.

  • Taux de disponibilité mensuel : 99,9 %
  • Temps d’intervention suite à incident : 15 minutes
  • Temps de rétablissement : 2 heures

Le tout, avec engagement contractuel.

Contacts

La haute disponibilité, la vraie, ne s’applique pas qu’aux plateformes, elle s’applique aussi à notre support.

Nos ingénieurs sont joignables en permanence, sans limite de sollicitation et sont capables de dialoguer avec tous les interlocuteurs impliqués dans vos projets Big Data : chefs de projets, Data Scientists et consultants.

  • E-mail
  • Téléphone

Et pour pousser jusqu’au bout la logique du guichet unique, nous pouvons servir d’interface avec votre intégrateur si vos jobs sont impactés.

Nous avons la culture du défi et nous tenons en haute estime la relation client. Alors peu importe votre demande, nous serons toujours ravis d’avoir de vos nouvelles.