Comment l'analyse de périphérie conduira une informatique plus intelligente

De nombreux cas d'utilisation d'analyse et d'apprentissage automatique se connectent aux données stockées dans des entrepôts de données ou des lacs de données, exécutent des algorithmes sur des ensembles de données complets ou un sous-ensemble de données et calculent les résultats sur des architectures cloud. Cette approche fonctionne bien lorsque les données ne changent pas fréquemment. Mais que faire si les données changent fréquemment?

Aujourd'hui, de plus en plus d'entreprises ont besoin de traiter les données et de calculer des analyses en temps réel. L'IoT est à l'origine d'une grande partie de ce changement de paradigme, car le streaming de données à partir de capteurs nécessite un traitement et une analyse immédiats pour contrôler les systèmes en aval. L'analyse en temps réel est également importante dans de nombreux secteurs, notamment la santé, les services financiers, la fabrication et la publicité, où de petits changements dans les données peuvent avoir des répercussions financières, sanitaires, sécuritaires et autres importantes.

Si vous souhaitez activer l'analyse en temps réel et les technologies émergentes qui tirent parti d'un mélange d'informatique de pointe, d'AR / VR, de capteurs IoT à grande échelle et d'apprentissage automatique à grande échelle, il est important de comprendre les considérations de conception pour l'analyse de périphérie. Les cas d'utilisation de l'informatique de périphérie tels que les drones autonomes, les villes intelligentes, la gestion de la chaîne de vente au détail et les réseaux de jeux en réalité augmentée visent tous à déployer des analyses de périphérie à grande échelle et hautement fiables.

Analyse de périphérie, analyse de streaming et informatique de périphérie

Plusieurs paradigmes d'analyse, d'apprentissage automatique et d'informatique de périphérie sont liés à l'analyse de périphérie:

  • L'analyse de périphérie fait référence aux algorithmes d'analyse et d'apprentissage automatique déployés sur une infrastructure en dehors de l'infrastructure cloud et «à la périphérie» dans une infrastructure géographiquement localisée.
  • L'analyse en continu fait référence à l'analyse informatique en temps réel au fur et à mesure du traitement des données. L'analyse en streaming peut être effectuée dans le cloud ou en périphérie selon le cas d'utilisation.
  • Le traitement des événements est un moyen de traiter les données et de prendre des décisions en temps réel. Ce traitement est un sous-ensemble de l'analyse en continu et les développeurs utilisent des architectures basées sur les événements pour identifier les événements et déclencher des actions en aval.
  • L'informatique de périphérie fait référence au déploiement du calcul sur les périphériques de périphérie et l'infrastructure réseau.
  • Le Fog Computing est une architecture plus généralisée qui divise le calcul entre les environnements de périphérie, de proximité et de cloud computing.

Lors de la conception de solutions nécessitant des analyses de périphérie, les architectes doivent tenir compte des contraintes physiques et d'alimentation, des coûts et de la fiabilité du réseau, des considérations de sécurité et des exigences de traitement.  

Raisons de déployer des analyses en périphérie

Vous pourriez vous demander pourquoi vous déploieriez une infrastructure à la périphérie pour l'analyse? Des considérations d'ordre technique, de coût et de conformité sont prises en compte dans ces décisions.

Les applications qui ont un impact sur la sécurité humaine et nécessitent de la résilience dans l'architecture informatique sont un cas d'utilisation pour l'analyse de périphérie. Les applications qui nécessitent une faible latence entre les sources de données telles que les capteurs IoT et l'infrastructure informatique d'analyse sont un deuxième cas d'utilisation qui nécessite souvent des analyses de périphérie. Des exemples de ces cas d'utilisation incluent: 

  • Voitures autonomes, machines automatisées ou tout autre moyen de transport où les systèmes de contrôle automatisent tout ou partie de la navigation.
  • Les bâtiments intelligents qui disposent de contrôles de sécurité en temps réel et qui veulent éviter d'avoir des dépendances sur le réseau et l'infrastructure cloud pour permettre aux gens d'entrer et de sortir du bâtiment en toute sécurité.
  • Des villes intelligentes qui suivent les transports publics, déploient des compteurs intelligents pour la facturation des services publics et des solutions intelligentes de gestion des déchets. 

Les considérations de coût sont un facteur important dans l'utilisation de l'analyse de périphérie dans les systèmes de fabrication. Considérez un ensemble de caméras scannant les produits manufacturés pour détecter les défauts sur des bandes transporteuses rapides. Il peut être plus rentable de déployer des dispositifs informatiques de pointe dans l'usine pour effectuer le traitement d'image, plutôt que d'installer des réseaux à haut débit pour transmettre des images vidéo vers le cloud.

J'ai parlé avec Achal Prabhakar, vice-président de l'ingénierie chez Landing AI, une entreprise d'IA industrielle proposant des solutions axées sur la vision par ordinateur. «Les usines de fabrication sont assez différentes des applications d'analyse traditionnelles et nécessitent donc de repenser l'IA, y compris le déploiement», m'a dit Prabhakar. «Un grand domaine d’action pour nous consiste à déployer des modèles de vision complexes d’apprentissage en profondeur avec un apprentissage continu directement sur les lignes de production en utilisant des appareils performants mais de base.»

Le déploiement d'analyses dans des zones éloignées telles que les sites de construction et de forage bénéficie également de l'utilisation de l'analyse des bords et de l'informatique. Au lieu de s'appuyer sur des réseaux étendus coûteux et potentiellement peu fiables, les ingénieurs déploient une infrastructure d'analyse de périphérie sur site pour prendre en charge le traitement des données et des analyses requis. Par exemple, une société pétrolière et gazière a déployé une solution d'analyse en continu avec une plate-forme informatique distribuée en mémoire jusqu'à la périphérie et a réduit le temps de forage de 20%, passant de 15 jours à 12 jours. 

La conformité et la gouvernance des données sont une autre raison de l'analyse de périphérie. Le déploiement d'une infrastructure localisée peut aider à se conformer au RGPD et à d'autres réglementations en matière de souveraineté des données en stockant et en traitant des données restreintes dans les pays où les données sont collectées.

Concevoir des analyses pour la périphérie

Malheureusement, prendre des modèles et d'autres analyses et les déployer dans une infrastructure informatique de pointe n'est pas toujours anodin. Les exigences informatiques pour le traitement de grands ensembles de données via des modèles de données à forte intensité de calcul peuvent nécessiter une refonte avant de les exécuter et de les déployer sur une infrastructure informatique de pointe.

D'une part, de nombreux développeurs et spécialistes des données tirent désormais parti des plates-formes d'analyse de niveau supérieur disponibles sur les clouds publics et privés. L'IoT et les capteurs utilisent souvent des applications intégrées écrites en C / C ++, ce qui peut être un terrain peu familier et difficile pour les scientifiques et les ingénieurs des données natifs du cloud.

Un autre problème peut être les modèles eux-mêmes. Lorsque les data scientists travaillent dans le cloud et font évoluer les ressources informatiques à la demande à des coûts relativement bas, ils sont en mesure de développer des modèles d'apprentissage automatique complexes, avec de nombreuses fonctionnalités et paramètres, pour optimiser pleinement les résultats. Mais lors du déploiement de modèles sur une infrastructure informatique de périphérie, un algorithme trop complexe pourrait considérablement augmenter le coût de l'infrastructure, la taille des appareils et les besoins en énergie.

J'ai discuté des défis du déploiement de modèles d'IA à la périphérie avec Marshall Choy, vice-président des produits chez SambaNova Systems. «Les développeurs de modèles pour les applications d'IA de bord se concentrent de plus en plus sur des modèles très détaillés pour améliorer la réduction des paramètres et les exigences de calcul», a-t-il noté. «Les besoins de formation pour ces modèles plus petits et très détaillés restent décourageants.»

Une autre considération est que le déploiement d'un système d'analyse de périphérie hautement fiable et sécurisé nécessite la conception et la mise en œuvre d'architectures, de systèmes, de réseaux, de logiciels et de modèles hautement tolérants aux pannes.

J'ai parlé avec Dale Kim, directeur principal du marketing produit chez Hazelcast, des cas d'utilisation et des contraintes lors du traitement des données en périphérie. Il a commenté que, si les optimisations de l'équipement, la maintenance préventive, les contrôles d'assurance qualité et les alertes critiques sont tous disponibles à la périphérie, il existe de nouveaux défis tels qu'un espace matériel limité, une accessibilité physique limitée, une bande passante limitée et de plus grands problèmes de sécurité.

«Cela signifie que l'infrastructure à laquelle vous êtes habitué dans votre centre de données ne fonctionnera pas nécessairement», a déclaré Kim. «Vous devez donc explorer de nouvelles technologies conçues en tenant compte des architectures d’informatique de pointe.

La prochaine frontière de l'analyse

Les cas d'utilisation les plus courants de l'analyse de périphérie sont aujourd'hui les fonctions de traitement des données, y compris le filtrage et les agrégations de données. Mais à mesure que de plus en plus d'entreprises déploient des capteurs IoT à grande échelle, la nécessité d'appliquer des algorithmes d'analyse, d'apprentissage automatique et d'intelligence artificielle en temps réel nécessitera davantage de déploiements en périphérie. 

Les possibilités à la périphérie font un avenir très excitant de l'informatique intelligente, car les capteurs deviennent moins chers, les applications nécessitent plus d'analyses en temps réel et le développement d'algorithmes optimisés et rentables pour la périphérie devient plus facile.