Baptisée « Few-Shot Learner », Meta déploie une nouvelle IA pour détecter les messages haineux plus rapidement.
Les chercheurs de Meta AI ont développé une nouvelle technologie d’apprentissage, baptisée du nom de modèle Few-Shot Learner (FSL). Cette technologie d’IA sera déployée pour modérer et identifier plus rapidement les contenus préjudiciables sur les plateformes de Meta (Facebook et Instagram) et assurer la sécurité de leurs utilisateurs.
A la différence de ses prédécesseurs, ce modèle nouvelle génération s’adapte pour agir sur des types de contenus préjudiciables nouveaux ou en évolution en quelques semaines seulement contre quelques mois auparavant.
Le nouveau modèle fonctionne d’ores et déjà dans plus de 100 langues, apprend à partir de différents types de données (images et textes), et peut renforcer les modèles d’IA déjà déployés pour détecter d’autres types de contenus préjudiciables.
Few-Shot Learner : Modérer plus rapidement les contenus problématiques
Pour ce faire, FSL utilise une méthode relativement nouvelle appelée « apprentissage en quelques étapes », dans laquelle les modèles commencent par une compréhension générale de nombreux sujets différents puis utilisent beaucoup moins d’exemples étiquetés, voire aucun, pour apprendre de nouvelles tâches.
En effet, la méthode Few-Shot Learner n’a besoin de recourir qu’à un nombre limité de données labellisées pour détecter les contenus problématiques comme les propos haineux, les violences, le complotisme… et ainsi, mieux modérer et plus rapidement les publications indésirables qui sont postées sur Facebook et Instagram.
Les ingénieurs de Meta AI annoncent que la nouvelle technologie FSL permet de gagner un temps précieux, passant de plusieurs mois à quelques semaines.
Comment ça marche ?
Il s’agit pour les chercheurs de Meta AI de mettre en place un modèle de compréhension de la langue qui soit plus généraliste. Ce modèle serait ainsi moins dépendant des données d’apprentissage. Il serait également entraîné sur des milliards d’exemples linguistiques, qui seraient génériques et disponibles en open source. Par la suite, ce modèle est nourri avec des contenus interdits ou problématiques déjà labellisés.
Grâce à des techniques d’apprentissage auto-supervisées, il suffit ensuite d’apporter à ce système quelques dizaines d’exemples de contenus problématiques pour que le modèle génère de façon automatique la nouvelle règle de filtrage.
Les tests qui ont été réalisés ont démontré que cette manière de procéder permettait de distinguer rapidement des contenus problématiques ou indésirable, même si leurs formulations sont nouvelles ou ambiguës.