Contact
France
Contact us
Replay

Au-delà des fantasmes, l’IA n’est pas magique !

News and insights
#Artificial intelligence


Découvrez ci-dessous les 3 convictions d’Artefact sur la réalité de l’IA.

Des performances dépendantes de la qualité d’alimentation

“L’intelligence” de l’IA ne lui donne pas la capacité de remettre en cause sa “nourriture” : la donnée. Elle “travaille “avec ce qu’on lui met à disposition.
Si la qualité des données n’est pas suffisante, c’est-à-dire pertinente, complète et fiable, l’algorithme ne sera pas en mesure de répondre aux attentes et sa réponse sera peu fiable sur la problématique à résoudre.

La qualité du modèle d’IA seul ne détermine pas la qualité des résultats en sortie : ils sont immédiatement corrélés à la qualité des données en entrée. La “qualité by design” est un des pré-requis pour tout projet IA.

L’assurance de la qualité des données et de leur maintien est une des responsabilité de l’équipe coeur des projets IA.

Un nécessaire “artisanat” de l’artificiel

Fournir des données de qualité au modèle d’IA n’est pas suffisant : celles-ci ne sont pas exploitables directement et requièrent des étapes manuelles réalisées par des experts.

Les modèles de machine learning sont des structures mathématiques possédant un potentiel, tout comme les muscles des êtres humains : ils ont besoin d’être entraînés afin de s’adapter à l’effort à fournir, l’entraînement permettant de préparer son corps de façon différente par exemple à une épreuve de gymnastique ou à un marathon.

Les algorithmes d’IA doivent eux aussi “s’entraîner” sur une base de données dite “d’apprentissage” afin de devenir plus performant sur l’exercice à effectuer.

Pour permettre l’entraînement des algorithmes, trois étapes artisanales sont requises :

  • Mettre à disposition des données de qualité : sélection, validation, import, évaluation de la qualité…
  • Préparer la base d’apprentissage : sélection, transformation et labellisation des données pour les rendre exploitables. Cette dernière est nécessaire aux algorithmes supervisés et semi-supervisés : les données sont explorées, analysées puis “étiquetées” par le biais de métadonnées*. Si l’on prend l’exemple de la reconnaissance d’image, le processus de labellisation permet d’obtenir une banque d’images et une description pour chacune d’entre elles. C’est une étape artisanale chronophage : par exemple il faut décrire manuellement le contenu de plusieurs milliers de photos.
  • Entraîner : méthodologie itérative de sélection de modèles et d’entraînement sur la base d’apprentissage jusqu’à l’obtention d’un modèle de qualité satisfaisante pour l’objectif visé.

Contrairement aux idées reçues l’IA n’est pas magique, ce n’est pas une machine intelligente qu’il suffit juste de nourrir d’informations et qui apprend toute seule : “le plug and play” n’existe pas.

Ces étapes artisanales se traduisent par des règles et méthodologies métiers essentielles afin d’exploiter les capacités des algorithmes et de s’intégrer dans les infrastructures existantes.

L’IA augmente l’humain mais ne remplace pas son intelligence

L’IA est encore programmée par l’homme, même si certains algorithmes ajustent leurs paramètres de façon automatisée.
Si des biais cognitifs existent lors de la programmation ou si des biais sont présents dans les données en entrée, l’IA ne va pas les détecter et produira un résultat biaisé, potentiellement désaligné avec les objectifs initiaux et contraire à l’éthique.

En 2016, Microsoft a conçu Tay, « pour échanger avec les gens et les divertir”. Celle-ci s’exprime sur Twitter, canal par lequel elle s’enrichit de ses interactions avec les internautes. En “liberté”, elle collecte toutes les informations que la twittosphère souhaite lui partager, pour le meilleur comme pour le pire. Au terme de 24 heures d’existence et de 96 000 tweets, elle est déconnectée. La tonalité de l’IA, candide et enthousiaste lors de sa mise en ligne a rapidement changé : abreuvée de points de vue extrêmes par une communauté, elle s’est mis à tenir des propos racistes.

Motherboard, un des sites références de la presse tech américaine commente l’événement “Rousseau avait raison : l’Homme naît bon, la société le corrompt. Ce qu’il ne savait pas, c’est que le postulat fonctionne aussi bien avec la machine.”

Si l’exemple de Tay a peu d’incidence, une IA biaisée peut être utilisée en arme de discrimination massive. Par exemple, un système de notation de candidats dans une entreprise peut augmenter la probabilité d’écarter des profils sur des paramètres comme le sexe ou l’origine géographique de façon à correspondre aux profils actuels, sans que cela ne soit perçu par les équipes de recrutement. Il faut donc affiner l’IA afin d’écarter les paramètres non souhaités qui pourraient avoir une influence sur le modèle.

L’usage d’algorithmes complexes, comme les réseaux de neurones, ne permet pas d’identifier les biais potentiels : le modèle est validé sur sa qualité, c’est-à-dire sur ses capacités à reproduire des exemples. Ils sont donc à manier en connaissance de cause. Au-delà de la reproduction, leur nature exploratoire permet aussi de détecter des paramètres, qui seraient intuitivement écartés par l’homme mais qui ont une incidence sur le résultat recherché. 

 

Téléchargez notre rapport sur l’ai factory !