Welcome!

Blog Feed Post

2017 : après 2007, autre année charnière pour l’innovation technologique ? Deuxième partie

 

AdS DPC 2017 Start S 123980981Regarder 2007 depuis 2017 pour déterminer les technologies qui ont profondément marqué cette décennie est raisonnablement facile ; c’est ce que j’ai fait dans la première partie de cette analyse.

Regarder 2027 depuis 2017 pour essayer d’anticiper les technologies, émergentes en 2017, qui seront considérées en 2017 comme ayant eu le plus grand impact sur cette période est plus... délicat.

Je n’ai pas trop mal réussi dans cet exercice au cours des dix dernières années, comme le montrent les nombreux textes que j’avais publié dans ce blog et qui sont référencés dans la première partie de ce billet.

J'essaie, avec beaucoup d’humilité, de refaire l’exercice pour la période 2017 - 2027. J’ai choisi sept technologies émergentes qui, comme pour la période 2007 - 2017, pourraient changer profondément nos usages des technologies informatiques. Ces sept technologies sont :

1 - Microprocesseurs spécialisés

2 - Intelligence Artificielle, Machine Learning...

3 - Réseaux 5G

4 - Edge Computing

5 - Nouvelles interfaces homme-machine

6 - Réalité Augmentée, Réalité Virtuelle

7 - Transports autonomes.

Plusieurs billets seront nécessaires pour traiter les sept thèmes.

Avant d’analyser ces sept technologies, il est important de prendre conscience qu’un mot, qui s’applique à ces sept technologies, explique l’impressionnante vitesse de ces évolutions : ce mot, c’est... exponentiel.

 

Croissance exponentielle

Gilder  Moore LawsProcesseurs, mémoires numériques, réseaux... toutes les technologies d’infrastructures voient leurs performances s’accroître de manière exponentielle. C’était vrai jusqu’à aujourd’hui, comme le rappellent ces courbes qui montrent les évolutions de ces trois domaines, avec des doublements tous les 18 mois pour les processeurs et tous les 9 mois pour la capacité des réseaux.

Cette «exponentialité» des performances va continuer entre 2017 et 2027, mais n’oublions pas que la pente d’une courbe exponentielle se rapproche rapidement de la verticale. A ce moment-là, les performances augmentent de plus en plus vite, en valeur absolue.

Exponential with manEn 2017, nous entrons dans une période de «verticalité exponentielle». En clair, cela signifie que toutes les limites que l’on connaissait en matière de performances des outils informatiques vont rapidement disparaître.

Sans Limites ! Sans limites dans la puissance de calcul. Sans limites dans les capacités de stockage. Sans limites dans les possibilités de transport de l’information.

2027, bienvenue dans un monde où les limites à la performance des technologies informatiques ont disparu !

  

1 - Les microprocesseurs spécialisés

DPC Microprocessor SS 80618919Les microprocesseurs généralistes, d’Intel, AMD ou ARM sont aujourd’hui les moteurs principaux de l’informatique. Ils auront encore un rôle important à jouer pendant les 10 ans qui viennent, mais ne seront plus des vecteurs d’innovation.

Je pronostique que ce sont de nouvelles générations de microprocesseurs spécialisés qui rendront possibles l’essentiel des innovations majeures des années 2017 - 2027. Ils resteront invisibles au grand public, comme le sont souvent les infrastructures informatiques qui servent de fondation aux nouveaux usages.

Je les place en première position dans cette liste des sept technologies ; sans eux, rien de ce que je présente dans ces billets ne serait possible.

Les premières versions de ces nouvelles familles de microprocesseurs sont déjà là, en 2017. Les progrès exponentiels dans leur puissance, au cours des 10 prochaines années, vont ouvrir des chantiers d’innovations difficiles à imaginer aujourd’hui.

Sans prétendre à l’exhaustivité, la petite dizaine de familles de microprocesseurs spécialisés présentés donnent une bonne photographie de la variété des options disponibles.

 

Processeurs graphiques (GPU)

Les cartes graphiques (GPU) existent depuis longtemps ; leurs domaines d’usages prioritaires étaient jusqu’à présent l’accélération graphique des affichages, en particulier pour les jeux vidéos.

GTX 1080 new Nvidia GPUNvidia, leader actuel des processeurs GPU, continue à investir dans des cartes pour la vidéo et les jeux, comme le montre l’annonce récente de la carte GTX 1080, plus puissante que la génération actuelle et consommant trois fois moins d’énergie.

Le nouveau champ d’action de ces cartes graphiques est dans l’Intelligence artificielle et en particulier le Machine Learning (ML).

Avec la DGX-1, Nvidia propose un super ordinateur pour l’Intelligence Artificielle (IA) :

  • Construit en utilisant les cartes graphiques Tesla P100 ; le nom n’a sûrement pas été choisi par hasard !
  • Promet des performances entre 30 et 250 fois supérieures à celles fournies par des solutions n’utilisant que des processeurs traditionnels.

Super computer AI Nvidia

Ces solutions sont disponibles pour toutes les entreprises ; les grands acteurs du IaaS, dont Google, IBM et Microsoft ont annoncé le support de ces cartes graphiques dans leurs environnements.

Les professionnels du sujet disent que ces cartes GPU sont très efficaces lors de la phase d’apprentissage des logiciels de Machine Learning. D’autres processeurs, comme les TPU présentées dans le paragraphe suivant, sont plus performants pour exécuter ces logiciels.

 

Intelligence Artificielle (IA) et Machine Learning (ML)

Une nouvelle génération de processeurs, nés pour l’IA et le ML, pointe le bout de son nez. Ce ne sont pas des Intel ou des Nvidia qui les conçoivent, mais des entreprises du Cloud comme Google.

Google TPU processorLa plateforme logicielle de ML de Google a pour nom TensorFlow ; il était donc logique de créer le TPU, TensorFlow Processing Unit, processeur dédié pour cette plateforme. Les fans de technologies trouveront dans cet article une présentation détaillée de l’architecture TPU.

Chip Dédié Google AI = less Data CentersLes TPU sont massivement déployés dans les centres de calcul de Google. Un article publié dans Wired explique que Google a évité de construire une douzaine de nouveaux centres de calcul grâce à la puissance de ces TPU.

 

La création de processeurs spécialisés IA s’accélère en 2017 : parmi les nouveau-nés, il y a Gloq, société créée par des anciens de… Google. Inutile de chercher leur site Web, il n’y en a pas. Ceci ne les a pas empêchés de lever 10 M$ !

Il n’est plus possible de citer toutes les startups dans ce domaine, car leur nombre augmente très vite ; parmi les annonces récentes :

  • KnuEdge, fondée par des anciens de la NASA, avec 100 M$ d’investissements.

Knu:Edge Neural CPU

  • DynamIQ, créé par ARM, le leader des processeurs pour smartphones et qui a lui aussi décidé de se joindre à ce mouvement.

 

Processeurs quantiques

Les premiers processeurs quantiques sont nés il y a près de 10 ans, en 2009.

Processeur quantiqueCe sont des technologies très complexes, dans lesquelles les « bits » sont remplacés par des «qubits », capables de prendre plusieurs états. Pour fonctionner, un calculateur quantique doit être totalement isolé du monde extérieur.

Des progrès majeurs ont été réalisés récemment dans les ordinateurs quantiques depuis que des géants de l’informatique comme IBM ou Google ont décidé d’y investir massivement.

Google devrait annoncer, avant la fin de l’année… 2017, un processeur 50 qubits ; il pourrait devenir le calculateur le plus puissant du monde !

On entendra beaucoup parler de qubits entre 2017 et 2027. Je suis prêt à parier que beaucoup d’informaticiens diront en 2027 :

« Comment pouvait-on faire de l’informatique en 2017, quand les processeurs quantiques n’existaient pas ? »

 

Processeurs «programmables» FPGA

L’industrie informatique utilise depuis longtemps des processeurs ASIC (Application Specific Integrated Circuit). Ce sont des processeurs spécialisés pour une tache, performants, mais que l’on ne peut pas modifier ensuite.

Altera fpgaLes processeurs FPGA (Field Programmable Gate Arrays) représentent la nouvelle génération des ASIC.

La différence essentielle entre les deux familles : la logique de fonctionnement des FPGA est modifiable par les utilisateurs, ce qui donne beaucoup plus de souplesse et permet de faire évoluer les usages au cours du temps.

Les deux leaders, Xiling et Altera, représentent environ 90 % du marché des processeurs FPGA.

Le marché des processeurs FPGA est-il vraiment stratégique ? Pour vous en convaincre, il suffit de savoir qu’Intel a déboursé 16,7 milliards de dollars pour racheter Altera ! C’est le plus important investissement jamais réalisé par Intel.

AWS F1 FPGA EC2L’importance croissante des processeurs FPGA est confirmée par le fait que les grands acteurs du Cloud comme AWS commencent à les proposer à leurs clients. On les trouvera de plus souvent dans le traitement de la voix et de l’image.

A côté de ces nouvelles familles de processeurs à usages potentiels très variés, on note l’émergence de nouvelles familles de processeurs dédiés à une seule activité. Sans prétendre à l’exhaustivité, j’ai choisi 4 domaines spécialisés :

  • La voix
  • L’image
  • Le transport
  • La sécurité 

Traitement de la voix

Amazon Echo - Just AskLes succès d’Amazon avec Echo et de Google avec Home, leurs boîtiers pilotés à la voix, montrent l’importance croissante des « interfaces voix ».

Des équipes du MIT ont développé des microprocesseurs spécialisés dans la reconnaissance vocale, capables de fonctionner avec une consommation électrique divisée par... 100. Ils pourront être déployés partout, à coût très bas, y compris dans des environnements industriels où les avantages du pilotage à la voix sont évidents.

La reconnaissance vocale est l’une des sept autres innovations que j’analyse ici ; une fois encore, c’est grâce aux performances de microprocesseurs spécialisés que les progrès les plus spectaculaires seront rendus possibles. Qui a financé cette recherche ? Le constructeur de microprocesseurs Quanta, basé en Corée du Sud.

 Pour des usages « plus classiques » autour du son, les GPU sont encore très utilisés : c’est le cas par exemple de Shazam, l’application capable de reconnaître en quelques secondes plus de 40 millions de thèmes musicaux. Shazam s’appuie de plus en plus sur les solutions Cloud de Google qui propose des GPU en IaaS.

 

Vision : processeur d’images

La reconnaissance d’images dans des photos et des vidéos est une priorité pour des entreprises comme Google ou Facebook. Dans ce domaine aussi, on a vu apparaître des acteurs spécialisés tels que Movidius avec ses processeurs Myriad.

Fathom by MovidiusPour rester dans la course et offrir des solutions spécialisées à ces clients, Intel a aussi racheté Movidius.

En 2016, Movidius a présenté Fathom, une clef USB dans laquelle est logé un processeur d’images Myriad ; ceci permet de rajouter un réseau neuronal de traitement de l’image à un PC classique ! Prix de vente de cette clef de calcul neuronal ? Environ 100 $.

 

Processeurs Transport

Voitures, camions, autobus… Tout le secteur du transport se prépare à l’invasion des véhicules autonomes. Les besoins de calcul dans les processeurs embarqués dans ces objets roulants sont gigantesques et vont donc demander des… processeurs spécialisés.

Nvidia automous carNvidia a annoncé Xavier, son processeur pour véhicules autonomes, qui sera disponible… fin 2017. Avec 7 milliards de transistors et une puissance de calcul de 20 TOPS (Trillion Operation Per Second), il va transformer tout véhicule en un super ordinateur.

Au CES de 2017, Nvidia a présenté une voiture Lincoln équipée avec Xavier. 

 

Processeurs sécurité

Nous utilisons tous depuis des dizaines d’années des processeurs spécialisés pour la sécurité pour nos cartes de crédit.

La course poursuite entre « les gendarmes et les voleurs » dans le cyberespace demande de plus en plus de puissance de calcul, donc des… processeurs spécialisés.

Gogole Security chip TitanPour améliorer la sécurité de ces centres de calcul, Google a annoncé en… 2017 Titan, un processeur dédié à la sécurité.

Du côté des objets d’accès, c’est SK Telecom, en Corée du Sud, qui présente un tout petit processeur pour smartphones, capable de générer de manière vraiment aléatoire des nombres premiers, indispensables dans les processus de chiffrement.

 

Synthèse  

Cette liste de nouvelles générations de microprocesseurs peut vous paraître un peu longue ; elle est pourtant incomplète et a pour seul objectif de vous faire toucher du doigt à quel point les microprocesseurs spécialisés seront les portes d’entrée indispensables pour la majorité des grandes innovations technologiques des 10 prochaines années. 

 

Read the original blog entry...

More Stories By Louis Nauges

Louis Naugès is Founder & President of Revevol, the first European Consulting organization 100% dedicated to SaaS and Cloud Computing. He has 30 years of IT experience. Very few people in Europe have his knowledge and expertise in Cloud & SaaS technologies and applications. He works directly with CIOs of very large organizations. Revevol is the first EMEA distributor of Google Apps and the largest worldwide organization deploying Google Apps is one of Revevol's clients.

Latest Stories
The past few years have brought a sea change in the way applications are architected, developed, and consumed—increasing both the complexity of testing and the business impact of software failures. How can software testing professionals keep pace with modern application delivery, given the trends that impact both architectures (cloud, microservices, and APIs) and processes (DevOps, agile, and continuous delivery)? This is where continuous testing comes in. D
Recently, REAN Cloud built a digital concierge for a North Carolina hospital that had observed that most patient call button questions were repetitive. In addition, the paper-based process used to measure patient health metrics was laborious, not in real-time and sometimes error-prone. In their session at 21st Cloud Expo, Sean Finnerty, Executive Director, Practice Lead, Health Care & Life Science at REAN Cloud, and Dr. S.P.T. Krishnan, Principal Architect at REAN Cloud, discussed how they built...
In his Opening Keynote at 21st Cloud Expo, John Considine, General Manager of IBM Cloud Infrastructure, led attendees through the exciting evolution of the cloud. He looked at this major disruption from the perspective of technology, business models, and what this means for enterprises of all sizes. John Considine is General Manager of Cloud Infrastructure Services at IBM. In that role he is responsible for leading IBM’s public cloud infrastructure including strategy, development, and offering m...
Mobile device usage has increased exponentially during the past several years, as consumers rely on handhelds for everything from news and weather to banking and purchases. What can we expect in the next few years? The way in which we interact with our devices will fundamentally change, as businesses leverage Artificial Intelligence. We already see this taking shape as businesses leverage AI for cost savings and customer responsiveness. This trend will continue, as AI is used for more sophistica...
The “Digital Era” is forcing us to engage with new methods to build, operate and maintain applications. This transformation also implies an evolution to more and more intelligent applications to better engage with the customers, while creating significant market differentiators. In both cases, the cloud has become a key enabler to embrace this digital revolution. So, moving to the cloud is no longer the question; the new questions are HOW and WHEN. To make this equation even more complex, most ...
In his session at 21st Cloud Expo, Raju Shreewastava, founder of Big Data Trunk, provided a fun and simple way to introduce Machine Leaning to anyone and everyone. He solved a machine learning problem and demonstrated an easy way to be able to do machine learning without even coding. Raju Shreewastava is the founder of Big Data Trunk (www.BigDataTrunk.com), a Big Data Training and consulting firm with offices in the United States. He previously led the data warehouse/business intelligence and B...
Blockchain is a shared, secure record of exchange that establishes trust, accountability and transparency across business networks. Supported by the Linux Foundation's open source, open-standards based Hyperledger Project, Blockchain has the potential to improve regulatory compliance, reduce cost as well as advance trade. Are you curious about how Blockchain is built for business? In her session at 21st Cloud Expo, René Bostic, Technical VP of the IBM Cloud Unit in North America, discussed the b...
SYS-CON Events announced today that Synametrics Technologies will exhibit at SYS-CON's 22nd International Cloud Expo®, which will take place on June 5-7, 2018, at the Javits Center in New York, NY. Synametrics Technologies is a privately held company based in Plainsboro, New Jersey that has been providing solutions for the developer community since 1997. Based on the success of its initial product offerings such as WinSQL, Xeams, SynaMan and Syncrify, Synametrics continues to create and hone in...
With tough new regulations coming to Europe on data privacy in May 2018, Calligo will explain why in reality the effect is global and transforms how you consider critical data. EU GDPR fundamentally rewrites the rules for cloud, Big Data and IoT. In his session at 21st Cloud Expo, Adam Ryan, Vice President and General Manager EMEA at Calligo, examined the regulations and provided insight on how it affects technology, challenges the established rules and will usher in new levels of diligence arou...
As you move to the cloud, your network should be efficient, secure, and easy to manage. An enterprise adopting a hybrid or public cloud needs systems and tools that provide: Agility: ability to deliver applications and services faster, even in complex hybrid environments Easier manageability: enable reliable connectivity with complete oversight as the data center network evolves Greater efficiency: eliminate wasted effort while reducing errors and optimize asset utilization Security: imple...
Nordstrom is transforming the way that they do business and the cloud is the key to enabling speed and hyper personalized customer experiences. In his session at 21st Cloud Expo, Ken Schow, VP of Engineering at Nordstrom, discussed some of the key learnings and common pitfalls of large enterprises moving to the cloud. This includes strategies around choosing a cloud provider(s), architecture, and lessons learned. In addition, he covered some of the best practices for structured team migration an...
The 22nd International Cloud Expo | 1st DXWorld Expo has announced that its Call for Papers is open. Cloud Expo | DXWorld Expo, to be held June 5-7, 2018, at the Javits Center in New York, NY, brings together Cloud Computing, Digital Transformation, Big Data, Internet of Things, DevOps, Machine Learning and WebRTC to one location. With cloud computing driving a higher percentage of enterprise IT budgets every year, it becomes increasingly important to plant your flag in this fast-expanding busin...
No hype cycles or predictions of a gazillion things here. IoT is here. You get it. You know your business and have great ideas for a business transformation strategy. What comes next? Time to make it happen. In his session at @ThingsExpo, Jay Mason, an Associate Partner of Analytics, IoT & Cybersecurity at M&S Consulting, presented a step-by-step plan to develop your technology implementation strategy. He also discussed the evaluation of communication standards and IoT messaging protocols, data...
Companies are harnessing data in ways we once associated with science fiction. Analysts have access to a plethora of visualization and reporting tools, but considering the vast amount of data businesses collect and limitations of CPUs, end users are forced to design their structures and systems with limitations. Until now. As the cloud toolkit to analyze data has evolved, GPUs have stepped in to massively parallel SQL, visualization and machine learning.
Modern software design has fundamentally changed how we manage applications, causing many to turn to containers as the new virtual machine for resource management. As container adoption grows beyond stateless applications to stateful workloads, the need for persistent storage is foundational - something customers routinely cite as a top pain point. In his session at @DevOpsSummit at 21st Cloud Expo, Bill Borsari, Head of Systems Engineering at Datera, explored how organizations can reap the bene...