cloud

Cloud 2015 : la fin des désillusions ?

2014 semble encore avoir été une année de transition.

Parmi certaines confusions, subsiste encore cette croyance que le Cloud est systématiquement moins cher et qu’y déployer un maximum d’environnements maximisera le retour sur investissement.

La technologie aussi a encore (trop) cristallisé l’essentiel des débats : très récemment, c’est Docker qui semblait voué à balayer OpenStack (sic), alors que ces approcloudches sont visiblement appelées à fusionner plutôt qu’à combattre.

De nombreux projets ont avorté, faute de business case, de vision, d’adhésion, mais aussi – il faut l’avouer – à cause d’une grande lassitude à entendre parler de Cloud à tout bout de champ, à tel point que des discussions comparant certains types de Mainframes avec du Cloud ont pu avoir lieu, dans la foulée d’une assertion selon laquelle avoir virtualisé l’essentiel de ses serveurs, c’est déjà faire du Cloud.

Le « Cloud washing » a donc encore eu quelques effets.. dans le sens d’une technophilie béate comme dans celui d’un conservatisme assumé. Gartner vient de le résumer parfaitement dans les 10 mythes du Cloud (http://www.gartner.com/newsroom/id/2889217), et Gartner étant souvent cohérent, sa courbe Hype place le Cloud à la fin de sa période de désillusion.

Et c’est une bonne nouvelle ! L’horizon s’éclaircit. À commencer par la récente publication de la norme ISO / IEC 17788 qui pose enfin la définition de ce qu’est le Cloud Computing (caractéristiques, catégories, modèles de déploiement).

Mais c’est surtout sur le terrain que les perspectives sont les plus réjouissantes. Quelles qu’aient été les approches choisies (en carricaturant : engager un plan de transformation massif avec une migration des applications existantes ou, au contraire, n’utiliser des plateformes Cloud que pour les nouveaux projets en les faisant grossir au fur et à mesure) les early adopters sont aujourd’hui dans une position beaucoup plus confortable qu’elle ne l’était il y a deux ans. Les gains de productivité, même s’ils ont été plus longs que prévus à obtenir, sont maintenant au rendez-vous. Les équipes sont rodées, elles soutiennent un processus Go / No Go to Cloud qui accélère le time to market.

Alignement métier, standardisation, flexibilité, comptent aujourd’hui parmi les principaux bénéfices d’une telle démarche. Ils vont bien au delà d’un gain financier direct, et replacent l’IT au coeur de la stratégie d’entreprise.

Enfin et surtout, l’expérience acquise grâce à ces premiers projets est le gage d’une approche beaucoup plus simple et rapide pour les prochains candidats.

Alors, vive 2015 !

big-data

Big Data : 2015 année de la corrélation ?

Le groupe Hilton a longtemps examiné les profils de ses clients au cas par cas afin de déterminer qui présentait un profil Hilton et qui n’y correspondait pas (http://knowledge.wharton.upenn.edu/article/customer-loyalty-age-big-data/). Puis, en optimisant les données qu’il partageait avec ses partenaires (banques, transports aériens..), certaines logiques sont apparues. Par exemple, la grande majorité des clients réserve un hôtel dans les 30 minutes qui suivent l’achat d’un billet d’avion.

Pourtant, Hilton a cherché à aller encore plus loin en se penchant sur des « indicateurs avancés » qui pouvaient aider l’entreprise à réaliser que quelqu’un est sur le point de faire un achat et a besoin d’un dernier coup de pouce, ou, à l’inverse, qu’un client est sur le point de renoncer à la marque, et a besoin d’une bonne raison pour rester.

big-data« Un client peut avoir fait 20 séjours chez nous l’année dernière, mais on peut très bien regarder les données de plus près et s’apercevoir qu’il ou elle a fait 40 séjours chez la concurrence – et tout à coup les mêmes indicateurs n’ont plus l’air si bons que ça », souligne Mark Weinstein, Responsable mondial de la fidélisation et des partenariats.

Cet exemple résume bien le passage d’une logique de causalité (requêtes sur les données d’un CRM par exemple) à une recherche de corrélation (mise en relation de données hétérogènes internes et externes à l’entreprise), qui est le fondement même du Big Data :

  • En traçant les requêtes Google portant sur la grippe en Angleterre, Google Flu trends permet d’identifier et de prévoir les zones d’infection de manière plus précise et plus prédictive que ne le ferait, par exemple, l’analyse des prescriptions médicales.
  • En travaillant sur les données issues des élections et en identifiant les quartiers les moins favorables au parti démocrate, Obama a pu, pendant sa campagne, concentrer ses efforts sur les zones où il devait gagner des électeurs, mieux que ne l’aurait fait des investissements massifs en publicité.
  • En s’étant aperçu que les relais téléphoniques pour portables (très présents en Afrique) perdaient en intensité dès que l’humidité augmentait, le Burkina Fasso est en train d’optimiser la captation des eaux de pluie.

Il existe même, parfois, ce que les statisticiens nomment la découverte de l’éléphant : une corrélation inattendue (la sérendipité) qui ouvre des nouvelles perspectives et peut procurer un avantage concurrentiel immense. En croisant des informations morphologiques de leurs patients et le développement d’une maladie rare, des médecins ont découvert récemment qu’une typologie de lobbe d’oreille pouvait être considérée comme un indicateur de risque potentiel, et ainsi améliorer considérablement la prévention. Voir ce que les autres n’ont pas vu..

C’est en cherchant les données à l’extérieur de l’entreprise (largement majoritaires), en les croisant à celles qui existent en interne, en multipliant les axes de recherche, en décloisonnant les équipes, en offrant un sponsorship à de tels projets, et en avançant de manière itérative autour d’un proof of value, que vous êtes susceptibles de changer complètement la donne sur votre marché.

Aquila Consulting vous souhaite une excellente année 2015, pleine de corrélations !