L’avenir des objets connectés intelligents passe par l’apprentissage automatique miniature

object connecté
Facebook
Twitter
LinkedIn

L’apprentissage automatique minuscule ou TinyML modifie la forme et la nature du paysage de l’apprentissage automatique.

Au cours des deux dernières décennies, nous avons assisté à un boom de l’apprentissage automatique comme jamais auparavant. En tant que technologie, l’apprentissage automatique est en fait beaucoup plus ancien que cela. Récemment cependant, certains grands projets de recherche comme les réseaux de mémoire à long court terme, ImageNet, et l’introduction des GPU ont fait de l’apprentissage automatique une option réalisable pour de nombreux problèmes. Des connexions Internet plus rapides et des dispositifs de mémoire de plus en plus grands (à la fois pour le stockage et la mémoire vive) ont également rendu plus disponibles les données nécessaires à l’entraînement des modèles d’apprentissage automatique. Des entreprises telles que Google, Amazon, Facebook à lire : télécharger vidéo Facebook et d’autres ont souvent fait preuve d’ouverture à l’égard de la technologie qu’elles avaient développée à l’origine pour des cas d’utilisation interne, et sont désormais à l’origine du développement de nouveaux algorithmes d’apprentissage automatique de nombreuses manières différentes. Les fournisseurs de cloud proposent désormais aussi des environnements d’apprentissage automatique, ce qui permet aux organisations de se lancer très facilement dans cette technologie et de la faire évoluer si nécessaire.

Parallèlement à cela, nous avons également assisté à une poussée de croissance de l’internet des objets, la puissance de calcul devenant moins chère et moins gourmande en énergie, de sorte qu’elle peut désormais être ajoutée à un large éventail d’objets pour les rendre plus intelligents. Dans le boom de l’IdO, nous avons également vu comment des capteurs de toutes sortes peuvent être utilisés pour surveiller un éventail diversifié de conditions – par exemple l’environnement, notre propre santé ou l’appareil lui-même.

La façon standard de traiter toutes ces données a été de les envoyer dans le cloud pour traitement. Cependant, comme la bande passante est normalement coûteuse ou de portée limitée, et que les capteurs peuvent normalement générer beaucoup de données en peu de temps, la plupart de ces informations sont perdues en transit. Mais si l’analyse des données d’apprentissage automatique peut être appliquée plus localement aux appareils IoT, ces pertes peuvent être éradiquées, et de nouvelles possibilités peuvent s’ouvrir.

TinyML Processus

Les algorithmes utilisés dans l’apprentissage automatique minuscule sont essentiellement les mêmes que ceux des opérations ML traditionnelles, avec un entraînement initial du modèle se produisant généralement sur un ordinateur local, ou dans le cloud. Après cette formation initiale, le modèle est condensé pour produire un ensemble plus compact, dans un processus appelé compression profonde (à lire : Compressez vos fichiers avec WinRar !). Deux techniques souvent employées à ce stade sont l’élagage et la distillation des connaissances.

Une fois cette distillation terminée, le modèle est quantifié pour réduire son poids de stockage, et pour le convertir dans un format compatible avec le dispositif connecté (comme la table connectée !). Un encodage peut également avoir lieu, s’il est nécessaire de réduire davantage la taille du modèle d’apprentissage.

Le modèle est ensuite converti dans un format qui peut être interprété par un interpréteur de réseau de neurones léger, tel que TensorFlow Lite (TF Lite).

TensorFlow de Google à lire : ampoule connectée Google home l’une des bibliothèques d’apprentissage automatique les plus populaires, et en 2017, TensorFlow Lite a été publié, ciblant les applications mobiles. TensorFlow Lite Micro (sortie en 2019) cible des applications à microprocesseur encore plus petites. Ces deux plateformes ont grandement facilité ce processus de rétrécissement du modèle pour l’adapter aux appareils embarqués. Il est désormais possible de développer et d’entraîner des modèles d’apprentissage automatique sur des machines de bureau ou de cloud très performantes, puis de les déployer sur des plateformes embarquées tout en utilisant la même API.

Traitement de pointe pour TinyML

A mesure que les appareils et les applications IoT s’intègrent aux cas d’utilisation critiques pour les missions et les entreprises, le temps de réponse du traitement de l’information dans les centres de données ou dans le cloud ne sera pas assez rapide. Il peut également y avoir des situations où des centaines de capteurs IoT doivent se connecter au cloud simultanément, ce qui crée une congestion du réseau.

Traiter les données à la périphérie offre plusieurs avantages. Du point de vue des lois sur la confidentialité et la protection des données, l’audit et la conformité sont beaucoup plus faciles à gérer lorsque les données ne quittent pas l’appareil (gérer aussi avec Octoprint !). La sécurisation des informations est également plus facile, car elles peuvent avoir une durée de vie très courte lorsqu’elles sont consommées dès qu’elles sont lues à partir du capteur.

Garantir l’efficacité énergétique pour le Tiny Machine Learning

Dans de nombreux cas, le traitement des données localement à la périphérie du réseau consomme beaucoup moins d’énergie que leur transmission vers le cloud ou le centre de données, de sorte que la durée de vie de la batterie peut être améliorée. Certains appareils TinyML sont capables de fonctionner en continu pendant un an, en fonctionnant avec une batterie de la taille d’une pièce de monnaie. Cela introduit des options pour les applications de surveillance de l’environnement à distance dans des domaines comme l’agriculture, les prévisions météorologiques ou l’étude des tremblements de terre.

La latence du réseau peut également être réduite, lorsque les données n’ont pas à être transmises dans les deux sens vers le cloud. Par exemple, la réalité augmentée est gourmande en données, et cela devient très perceptible s’il y a un retard dans le traitement de la vidéo.