L'intelligence artificielle aujourd'hui: quel est le battage médiatique et qu'est-ce qui est réel?

Choisissez un magazine, parcourez les blogs techniques ou discutez simplement avec vos pairs lors d'une conférence de l'industrie. Vous remarquerez rapidement que presque tout ce qui sort du monde de la technologie semble contenir un élément d'intelligence artificielle ou d'apprentissage automatique. La façon dont l'intelligence artificielle est discutée commence à ressembler à de la propagande. Voici la seule véritable technologie qui peut résoudre tous vos besoins! L'IA est là pour nous sauver tous!

S'il est vrai que nous pouvons faire des choses incroyables avec des techniques basées sur l'IA, nous n'incarnons généralement pas tout le sens du terme «intelligence». L'intelligence implique un système avec lequel les humains peuvent avoir une conversation créative - un système qui a des idées et qui peut en développer de nouvelles. Le problème est la terminologie. «L'intelligence artificielle» décrit aujourd'hui couramment la mise en œuvre de certains aspects des capacités humaines, comme la reconnaissance d'objets ou de la parole, mais certainement pas tout le potentiel de l'intelligence humaine.

Ainsi, «l'intelligence artificielle» n'est probablement pas la meilleure façon de décrire la «nouvelle» technologie d'apprentissage automatique que nous utilisons aujourd'hui, mais ce train a quitté la gare. Dans tous les cas, si l'apprentissage automatique n'est pas encore synonyme d'intelligence artificielle, il est certainement devenu plus puissant, plus performant et plus facile à utiliser. L'IA - c'est-à-dire les réseaux de neurones ou l'apprentissage profond ainsi que l'apprentissage automatique «classique» - est enfin en passe de devenir un élément standard de la boîte à outils d'analyse.

Maintenant que nous sommes bien dans la révolution (ou plutôt l'évolution) de l'IA, il est important de regarder comment le concept d'intelligence artificielle a été coopté, pourquoi et ce qu'il signifiera dans le futur. Examinons plus en détail pourquoi l'intelligence artificielle, même une version légèrement mal interprétée de celle-ci, a attiré le niveau d'attention actuel.

La promesse de l'IA: pourquoi maintenant?

Dans le cycle actuel de battage médiatique, l'intelligence artificielle ou l'apprentissage automatique sont souvent décrits comme des technologies relativement nouvelles qui ont soudainement mûri, passant récemment du stade du concept à l'intégration dans les applications. Il est généralement admis que la création de produits d'apprentissage automatique autonomes n'a eu lieu qu'au cours des dernières années. En réalité, les développements importants de l'intelligence artificielle ne sont pas nouveaux. L'IA d'aujourd'hui est la continuation des progrès réalisés au cours des deux dernières décennies. Le changement, les raisons pour lesquelles l'intelligence artificielle apparaît dans tant d'autres endroits, ne concerne pas tant les technologies d'IA elles-mêmes, mais les technologies qui les entourent, à savoir la génération de données et la puissance de traitement.

Je ne vous ennuierai pas de citer combien de zettaoctets de données nous allons bientôt stocker (combien de zéros un zettaoctet a-t-il de toute façon?). Nous savons tous que notre capacité à générer et à collecter des données augmente de façon phénoménale. Dans le même temps, nous avons constaté une augmentation ahurissante de la puissance de calcul disponible. Le passage des processeurs mono-cœur au multi-cœur ainsi que le développement et l'adoption d'unités de traitement graphique à usage général (GPGPU) fournissent suffisamment de puissance pour l'apprentissage en profondeur. Nous n'avons même plus besoin de gérer le calcul en interne. Nous pouvons simplement louer la puissance de traitement quelque part dans le cloud.

Avec autant de données et de ressources de calcul, les data scientists sont enfin en mesure d'utiliser les méthodes développées au cours des dernières décennies à une échelle totalement différente. Dans les années 1990, il fallait des jours pour former un réseau de neurones à reconnaître des nombres sur des dizaines de milliers d'exemples avec des chiffres manuscrits. Aujourd'hui, nous pouvons former un réseau neuronal beaucoup plus complexe (c'est-à-dire «profond») sur des dizaines de millions d'images pour reconnaître des animaux, des visages et d'autres objets complexes. Et nous pouvons déployer des modèles d'apprentissage en profondeur pour automatiser les tâches et les décisions dans les applications commerciales classiques, telles que la détection et la prévision de la maturité des produits ou le routage des appels entrants.

Cela peut sembler suspect de construire une véritable intelligence, mais il est important de noter que sous ces systèmes, nous réglons simplement les paramètres d'une dépendance mathématique, même si elle est assez complexe. Les méthodes d'intelligence artificielle ne sont pas bonnes pour acquérir de «nouvelles» connaissances; ils apprennent seulement de ce qui leur est présenté. En d'autres termes, l'intelligence artificielle ne pose pas de questions sur le «pourquoi». Les systèmes ne fonctionnent pas comme les enfants qui interrogent constamment leurs parents alors qu'ils essayent de comprendre le monde qui les entoure. Le système ne sait que de quoi il a été nourri. Il ne reconnaîtra rien dont il n'avait pas été informé auparavant.

Dans d'autres scénarios d'apprentissage automatique «classiques», il est important de connaître nos données et d'avoir une idée de la manière dont nous voulons que ce système trouve des modèles. Par exemple, nous savons que l'année de naissance n'est pas un fait utile sur nos clients, à moins que nous ne convertissions ce nombre en âge du client. Nous connaissons également l'effet de la saisonnalité. Nous ne devons pas nous attendre à ce qu'un système apprenne les modèles d'achat de mode indépendamment de la saison. De plus, nous pouvons vouloir injecter quelques autres choses dans le système pour apprendre en plus de ce qu'il sait déjà. Contrairement à l'apprentissage profond, ce type d'apprentissage automatique, que les entreprises utilisent depuis des décennies, a progressé davantage à un rythme soutenu.

Les progrès récents de l'intelligence artificielle sont intervenus principalement dans des domaines où les scientifiques des données sont capables d'imiter les capacités de reconnaissance humaine, telles que la reconnaissance d'objets dans des images ou des mots dans des signaux acoustiques. Apprendre à reconnaître des modèles dans des signaux complexes, tels que des flux audio ou des images, est extrêmement puissant - suffisamment puissant pour que de nombreuses personnes se demandent pourquoi nous n'utilisons pas partout des techniques d'apprentissage en profondeur. 

La promesse de l'IA: et maintenant?

Le leadership organisationnel peut se demander quand il doit utiliser l'intelligence artificielle. Eh bien, la recherche basée sur l'IA a fait des progrès massifs en ce qui concerne les réseaux de neurones résolvant des problèmes liés à l'imitation de ce que les humains font bien (la reconnaissance d'objets et la reconnaissance vocale étant les deux exemples les plus marquants). Chaque fois que l'on demande: «Qu'est-ce qu'une bonne représentation d'objet?» et ne peut pas trouver de réponse, alors un modèle d'apprentissage en profondeur peut valoir la peine d'être essayé. Cependant, lorsque les scientifiques des données sont capables de construire une représentation d'objets sémantiquement riche, les méthodes d'apprentissage automatique classiques sont probablement un meilleur choix (et oui, cela vaut la peine d'investir un peu de réflexion sérieuse pour essayer de trouver une bonne représentation d'objets).

Au final, on veut simplement essayer différentes techniques au sein d'une même plateforme et ne pas être limité par le choix de méthodes de certains éditeurs de logiciels ou l'incapacité de rattraper les progrès actuels dans le domaine. C'est pourquoi les plateformes open source sont leaders sur ce marché; ils permettent aux praticiens de combiner les technologies de pointe actuelles avec les derniers développements de pointe.

À mesure que les équipes s'alignent sur leurs objectifs et leurs méthodes d'utilisation de l'apprentissage automatique pour les atteindre, l'apprentissage en profondeur fera partie de la boîte à outils de chaque data scientist. Pour de nombreuses tâches, l'ajout de méthodes d'apprentissage en profondeur au mélange apportera une grande valeur. Pensez-y. Nous pourrons inclure la reconnaissance d'objets dans un système, en utilisant un système d'intelligence artificielle pré-formé. Nous pourrons incorporer des composants de reconnaissance vocale ou vocale existants, car quelqu'un d'autre s'est donné la peine de collecter et d'annoter suffisamment de données. Mais à la fin, nous nous rendrons compte que le deep learning, tout comme le machine learning classique avant lui, n'est en réalité qu'un autre outil à utiliser lorsque cela a du sens.

La promesse de l'IA: et ensuite?

L'un des obstacles qui surgira, tout comme il y a deux décennies, est l'extrême difficulté que l'on rencontre en essayant de comprendre ce que les systèmes d'intelligence artificielle ont appris et comment ils élaborent leurs prédictions. Cela peut ne pas être critique lorsqu'il s'agit de prédire si un client peut ou non aimer un produit particulier. Mais des problèmes surgiront lorsqu'il s'agira d'expliquer pourquoi un système interagissant avec des humains s'est comporté de manière inattendue. Les humains sont prêts à accepter «l'échec humain» - nous ne nous attendons pas à ce que les humains soient parfaits. Mais nous n'accepterons pas l'échec d'un système d'intelligence artificielle, surtout si nous ne pouvons pas expliquer pourquoi il a échoué (et le corriger).

Au fur et à mesure que nous nous familiariserons avec le deep learning, nous réaliserons - comme nous l'avons fait pour le machine learning il y a deux décennies - que malgré la complexité du système et le volume de données sur lequel il a été formé, il est impossible de comprendre les modèles sans connaissance du domaine. La reconnaissance vocale humaine fonctionne aussi bien que parce que nous pouvons souvent combler un trou en connaissant le contexte de la conversation en cours.

Les systèmes d'intelligence artificielle d'aujourd'hui n'ont pas cette compréhension approfondie. Ce que nous voyons maintenant, c'est une intelligence superficielle, la capacité d'imiter des capacités de reconnaissance humaines isolées et parfois de surpasser les humains dans ces tâches isolées. Entraîner un système sur des milliards d'exemples est juste une question de disposer des données et d'accéder à suffisamment de ressources de calcul - et non plus un compromis.

Il y a de fortes chances que l'utilité de l'intelligence artificielle se situe finalement quelque part en deçà de la propagande «sauver le monde». Peut-être que tout ce que nous aurons, c'est un outil incroyable que les praticiens pourront utiliser pour faire leur travail plus rapidement et mieux.

Michael Berthold est PDG et co-fondateur de KNIME, une société d'analyse de données open source. Il a plus de 25 ans d'expérience dans la science des données, travaillant dans le milieu universitaire, plus récemment en tant que professeur titulaire à l'Université de Constance (Allemagne) et auparavant à l'Université de Californie (Berkeley) et Carnegie Mellon, et dans l'industrie au sein du groupe Intel's Neural Network, Utopy et Tripos. Michael a publié de nombreux articles sur l'analyse des données, l'apprentissage automatique et l'intelligence artificielle. Suivez Michael sur  Twitter , LinkedIn et le blog KNIME .   

-

New Tech Forum offre un lieu pour explorer et discuter des technologies d'entreprise émergentes avec une profondeur et une ampleur sans précédent. La sélection est subjective, basée sur notre choix des technologies que nous pensons importantes et qui intéressent le plus les lecteurs. n'accepte pas les supports marketing pour la publication et se réserve le droit de modifier tout le contenu fourni. Envoyez toutes vos demandes à  [email protected] .