LE BIG DATA N’EST PAS UN PRÉREQUIS POUR L’IA

Le Big Data est-il un prérequis indispensable à l’Intelligence Artificielle ?

L’intelligence artificielle est présentée comme étant « LA » solution à tous les problèmes allant au-delà de l’ampleur de ce que pourrait résoudre l’humain de manière ponctuelle. Or, elle suppose la gestion de grands volumes de données et des ressources techniques suffisantes pour les exploiter. Cela dit, toutes les entreprises ne disposent ni des capacités ni des volumes de données nécessaires pour le faire. En revanche, elles ont facilement accès à un ensemble de petits jeux de données simples à récupérer et faciles à exploiter.

Les données les plus utiles ne sont pas toujours celles les plus disponibles ou les plus complexes à analyser, d’où l’engouement récent pour le “Small Data”. L’exploitation du Small Data peut présenter un avantage opérationnel intéressant pour les entreprises dans le sens où il permet de générer autant de valeur ajoutée sans avoir besoin de la même structure informatique.

Qu’est-ce que le “Small Data” ?

Le “Small Data” n’est toutefois pas antinomique au “Big Data”. Ce dernier peut être composé d’un ensemble de “Small Data” qui, lorsqu’elles sont historicisées, constituent la base des “Big Data”. L’exploitation des “Small Data” revient alors à recueillir et à analyser des données simples, qu’une entreprise pourrait obtenir directement de ses clients, telles que leurs coordonnées ou leurs profils d’achat.

Des pannes de bon sens

Les procédés d’intelligence artificielle conventionnels requièrent des volumes de données d’apprentissage importants pour être en mesure d’apprendre des concepts aussi élémentaires qu’un caractère manuscrit. C’est le cas du Machine Learning dont le but est de rechercher des corrélations dans les données : plus on a de données, plus on est certain que les corrélations sont pertinentes.

A titre d’exemple, pour reconnaître un panneau de signalisation, un algorithme de reconnaissance d’images doit s’entraîner à l’aide de plusieurs millions d’images dudit panneau avant de pouvoir l’identifier correctement. Une fois ceci accompli, cet algorithme le fera plus rapidement et plus correctement qu’un humain, mais il restera fragile car toute modification mineure d’un pixel pourra entraîner des résultats inattendus. Ces réseaux neuronaux gourmands en données ont alors de sérieuses limites dans le sens où ils ont des difficultés particulières à gérer des cas « marginaux » ou des situations dans lesquelles peu de données existent.

Au-delà des clichés de l’intelligence artificielle – L’approche par MGC

Si l’humain n’ayant vu que quelques exemplaires (Small Data) du panneau de signalisation est capable d’en reconnaître d’autres, c’est qu’il est aussi capable de comprendre le concept dudit panneau. L’humain induit ainsi les causes à partir des conséquences et procède à une généralisation à grande échelle. Cela est en effet le but de l’approche du Machine Learning par les Modèles Génératifs Causals (MGC) qui permet de faire face aux problèmes de traitement des « Small Data ». Il s’agit d’accroître les capacités de généralisation d’un modèle prédictif et de modéliser les processus qui expliquent comment fonctionne le monde physique qui nous entoure. Ainsi, les MGC cherchent à inverser le processus cognitif d’induction des causes à partir des effets de telle manière à prédire tout ce qui s’explique au moyen de mécanismes causals. Ceci démontre que le MGC présente un intérêt bénéfique pour l’analyse des « Small Data ».

Le Transfer Learning – Une technique prometteuse

Il est donc question de donner à nos systèmes d’IA une forme de bon sens générale similaire à celle de l’humain. Le “Transfer Learning” est une technique permettant de transvaser les connaissances acquises d’un jeu de données et de les appliquer à un autre. Grâce au développement des réseaux de neurones profonds, cette solution s’avère extrêmement flexible par rapport à la plupart des autres techniques de Machine Learning. Cela conduit à des situations novatrices dans lesquelles nous pouvons exploiter les “Small Data”.

A titre d’exemple, un réseau neuronal pourrait s’entraîner sur le grand jeu de données « Image-Net » puis s’entraîner sur un jeu de données plus petit ne contenant que quelques milliers d’images.

Des exemples plus ambitieux de “Transfer Learning” ont également porté leurs fruits tels la recherche qu’a publié Google Brain sur son MultiModel. Le même réseau de neurones profonds a été entraîné sur 8 tâches différentes. La performance des systèmes s’est avérée meilleure pour les tâches comprenant de petits jeux de données. La recherche donne alors un aperçu tentant de la manière dont nous pourrions doter le contexte de nos systèmes d’IA d’un aperçu du monde réel leur permettant de comprendre les petits ensembles de données.

Les Best Practices du Small Data

L’analyse fructueuse des “Small Data” suppose une identification adéquate des indicateurs. Dans ce sens, les indicateurs retenus doivent en amont être nettoyés de ceux à pertinence moindre. Il convient aussi d’affiner ces premiers indicateurs au fur et à mesure pour gagner en précision et ce selon les différentes segmentations. Les “Small Data” deviennent dès lors des “Smart Data”, des données intelligentes à partir desquelles des recommandations personnalisées, contextualisées et opérationnelles peuvent être tirées.

Du fait que les systèmes d’IA deviennent plus intelligents et moins artificiels, ils reposeront moins sur le Bottom-Up “Big Data” que sur le raisonnement Top-Down qui ressemble davantage à la façon dont les humains abordent leurs problèmes. Cette capacité de raisonnement général permettra à l’IA de s’appliquer de façon plus large, créant ainsi des opportunités pour les utilisateurs précoces même dans les entreprises et les activités pour lesquelles elle semblait auparavant inadaptée. Les analyses ne nécessiteront pas forcément des jeux de données volumineux et seront plus rapides, plus flexibles et plus intuitives. Longtemps occulté par le Big Data, l’usage du Small data promet un renouveau certain dans l’univers de l’intelligence artificielle

 

Auteur :

Nada Rihane

Analyste chez Valyans Intelligence

 

Menu