Avec la data, l’industrie PaaS à l’ère du 'Product as a Service'

7 min
temps de visionnage :
7 min

Avec la data, l’industrie PaaS à l’ère du 'Product as a Service'

Ecouter cet article
Partager cet article
No items found.
No items found.
No items found.
En partenariat avec
Si l’industriel n’était plus cantonné à la fabrication et à la vente d’un produit mais plutôt à la valorisation d’un ensemble de services liés à ce produit ? Le concept de "product as a service" (PaaS) fait doucement son chemin comme nous l’a prouvé, ce 20 mars, le HUBTALK Data, IoT & IA au service de l’industrie 4.0, animé par Alexandre Lacour, Senior Digital Expert du HUB Institute. Compte-rendu d’un parcours au cœur d’usines où la machine bien huilée est celle qui fonctionne à la data.

Data, matière première de l’industrie 4.0

Alexandre Lacour, Senior Digital Expert du HUB Institute, introduit ce HUBTALK en présentant quelques tendances qui façonnent l’industrie 4.0. Au cours de sa keynote, il revient notamment sur l’émergence du concept de "Product as a Service."

Aujourd’hui, la valeur d’un produit est linéaire. Demain, avec la connexion des machines et l’usage de la data, les industriels seront en mesure de proposer un PaaS. Sa valeur ne sera plus linéaire car elle dépendra du nombre de services liés auquel aura souscrit le client.

A l’heure actuelle, le plus abouti de ces services reste celui de la maintenance prédictive. Comment optimiser des processus de maintenance coûteux en temps et en matériel tout en anticipant les pannes pour ne pas nuire à l’expérience de l’utilisateur final ? L’intelligence artificielle s’impose comme une obligation pour les industriels qui veulent pouvoir profiter des 630 milliards de dollars d’économies potentielles à réaliser sur le marché d’ici 2025 via la maintenance prédictive.

Bien entendu, ne parviendront à valoriser la donnée que ceux qui auront réussi à la dompter, c’est-à-dire comprendre de quelle data ils disposent, comment la stocker de manière pérenne et à termes quels services déployer avec elle.

La SNCF mobilise toutes ses entités autour de la data

Depuis 2015, la SNCF réorganise sa manière d’appréhender le Big Data. Sébastien Pialloux, directeur data & IoT, nous confie ainsi : "Chaque entité du groupe dispose de son propre data lake. Ils sont organisés autour de trois grandes plateformes cloud : Big Data, IoT et Open Data."

En 3 ans, le groupe a ainsi entrepris de dompter l’énorme potentiel de données qu’il peut capter depuis ses 17 000 trains et 4 millions de passagers quotidiens, mais aussi via son infrastructure, son réseau logistique et son parc immobilier. Cette data très riche permet aujourd’hui au groupe d’explorer le potentiel de nouveaux outils (notamment de maintenance prédictive de ses trains) pour optimiser ses propres opérations, mais aussi concevoir de services à destination de sa clientèle.

"La donnée améliore l’information voyageur, notre connaissance client, la maintenance et supervision des infrastructures, les projets de "mobility as a service" (MaaS), la surveillance réseau, les téléopérations ou encore la sécurité ferroviaire."

Restent toutefois plusieurs enjeux à relever : notamment celui de la cybersécurité.

Entre 2017, nous avons vu une multiplication par 2 des attaques menées sur nos systèmes d’information.

 

L’Oréal optimise ses processus opérationnels avec l’IIoT d’IBM

 

Le challenge de l’industrie du futur, c’est avant tout de parvenir à connecter celle d’aujourd’hui. Près de 98% des machines de chaînes de production sont datées et pas conçues pour les protocoles informatiques que l’on manipule aujourd’hui."

C’est sur ces mots que Christophe Didier, Technical Director France for Internet of Things – IBM, résume l’enjeu de sa collaboration avec L’Oréal. Le groupe aux 82600 employés (dont près de 20 000 impliqués dans les processus industriels) a fait appel à IBM pour l’accompagner dans le déploiement de ses solutions d’IoT et d’intelligence artificielle pour optimiser ses opérations de fabrication (mieux gérer les temps d’arrêt dans la fabrication, mettre en place une maintenance prédictive de ses chaînes de production, optimiser les trajets des équipes…)  

Christophe Didier revient sur toutes les étapes de ce grand projet en insistant notamment sur la présence des experts d’IBM dès l’étape de design thinking afin d’être sûr que les solutions déployées répondent à des use cases opérationnels réalistes. Pour cela, les équipes sur le terrain ont aussi très tôt été impliquées dans la réflexion stratégique.

Maintenance prédictive : utile pour les industriels mais aussi leurs clients

Si les précédentes interventions évoquent tous de près ou de loin la maintenance prédictive comme outil au service des opérations industrielles, certains parviennent à en faire un service à destination de leur clientèle.

Lors de cette table ronde, Alain Piguet, Head of Marketing & Communications South Europe & Israel Area – Kone, explique ainsi comment son groupe, leader des ascenseurs et escaliers mécaniques à travers le monde, intègre la maintenance prédictive à son panel d’offres. Cet exemple de "product as a service" est notamment permis grâce à plus de 200 typologies de données différentes captées via l’introduction de capteurs connectés dans les infrastructures mises en place par Kone.

Ces dernières sont analysées par Watson (l’intelligence artificielle d’IBM) qui, en détectant les signaux faibles annonciateurs de pannes, est finalement capable d’aider les équipes de maintenance à gérer leurs priorités et prendre des décisions optimisées en amont des pannes.

Alain Piguet résume ainsi : "D’ici 2030, 5 milliards de personnes vivront dans les villes. Il y a donc un véritable enjeu pour nous à faire de la R&D dans les solutions connectées et les plateformes IoT pour être en mesure de proposer des services de maintenance prédictive optimisés à nos clients ; et en définitive à leurs propres clients : l’utilisateur final."

Si la logique menée par Atlas Copco est sensiblement la même, Stéphane Huby, Chef Vente Nord SAV, explique que l’analyse des données produites par les compresseurs de sa société répond à d’autres enjeux cruciaux.

"La donnée a aussi un impact sur la conception des machines. En l’analysant, nous nous sommes aperçus que nos compresseurs sont utilisés dans des environnements plus chauds que nous le pensions. Nous les avons donc adaptées à ces conditions pour qu’ils soient plus résistants."

Intelligent Edge : Comment rendre intelligent l’asset industriel hors connexion ?

L'avantage de l'IIoT (Industrial Internet of Things) c'est son hyper connectivité. Cela peut aussi être un inconvénient. Que deviennent ces outils connectés, chargés d'appuyer les opérations lorsqu'ils perdent leur connexion au cloud ? C'est la question que se posent plusieurs éditeurs de solutions notamment Microsoft.

Le groupe, qui a déjà investi près de 3 milliards de dollars dans le développement de ses solutions IoT, s'apprête à en à "investir 5 milliards de dollars de plus pour parvenir à mettre en place des processus d’analyse et de valorisation de la donnée en offline," explique Nicolas Coudert, IoT Business Lead avant d'ajourer : "Car dans l’industrie, vous ne pouvez pas garantir qu’un objet sera en permanence connecté au cloud, mais son potentiel doit pouvoir rester le même."

Microsoft propose ainsi une approche différente appelée "Intelligent Edge." Ici, les calculs sont effectués rapidement sur le cloud qui renvoie ensuite les insights vers les objets connectés. Les calculs informatiques menant à l'interprétation de ces insights et à l'action à mener par l'objet sont réalises directement au sein de ce dernier via une infrastructure d'edge computing. 

Cette hybridation des processus, proche du Fog Computing évoqué par Alexandre Lacour en introduction, permet de garantir le fonctionnement permanent des objets connectés même lorsque ces derniers sont soumis à de courtes coupures de réseau.

Autre enjeu de la donnée industrielle : le développement de jumeaux numériques plus intelligents. Ces modèles virtuels de l'usine (et de tous les assets qui la composent) peuvent aujourd'hui servir de terrain à toutes les simulations. L'intelligence artificielle est alors en mesure d'optimiser les processus itératifs afin d'éviter les expérimentations ratées qui ralentiraient toute la chaîne de production...

Tel sera le sujet du HUBTALK "Jumeaux Numériques et Virtualisation des Process" du jeudi 13 juin prochain auquel nous vous convions.

VOUS AIMEREZ

Aussi

No items found.
No items found.
No items found.
No items found.
Newsletters du HUB Institute