NVIDIA a développé une nouvelle approche pour former des réseaux contradictoires génératifs (GAN). Cette méthode nécessite beaucoup moins de données d’entrée que les méthodes actuellement populaires. Alors que la qualité de la formation est toujours absolument garantie.
Si vous ne le savez pas, GAN est un système d'IA composé de 2 parties distinctes :
- Le premier est le réseau génératif, qui permet de créer des échantillons d'entraînement (fausses données), dans le but de créer les données les plus réalistes.
- Le second est le Réseau Discriminatif : dont la tâche est d'essayer de distinguer les données réelles des fausses données, puis d'utiliser ces données pour « recycler » le Réseau Génératif lui-même.

Modèle GAN
Les systèmes GAN ont été appliqués à de nombreuses tâches intensives telles que la conversion de légendes en histoires en fonction de chaque contexte, notamment la création de photos et de vidéos artificielles d'un réalisme extrêmement élevé.
Essentiellement, pour pouvoir produire des résultats fiables avec une grande cohérence, les modèles GAN traditionnels nécessiteront un minimum de 50 000 à 100 000 images comme données d'entraînement d'entrée. Si la quantité de données d'entraînement est trop petite, le modèle GAN a tendance à souffrir d'un problème appelé « surajustement ». Dans ce cas, le réseau Discriminatif n’aura pas suffisamment de base pour s’entraîner et interagir efficacement avec le réseau Génératif.
Dans le passé, une méthode couramment utilisée par les chercheurs en IA pour tenter de résoudre le problème du manque de données de formation consistait à utiliser une technique appelée « augmentation des données ». En utilisant à nouveau l'algorithme d'image comme exemple, en l'absence de suffisamment de données de formation nécessaires, les experts tenteront de résoudre le problème en créant des copies « déformées » des images existantes, comme en recadrant, en tournant ou en retournant une image originale pour créer plusieurs images comme données d'entraînement supplémentaires. L'idée ici est de ne pas laisser le modèle GAN voir exactement la même image deux fois.
Cependant, le problème de cette approche est qu'elle peut amener le GAN à apprendre à imiter des changements non naturels dans les données d'entraînement, au lieu de créer quelque chose de nouveau. Pour résoudre le problème, NVIDIA a développé une nouvelle méthode appelée « Adaptive Differentiation Augmentation (ADA). Le cœur reste les techniques d’augmentation des données, mais déployées de manière adaptative. Au lieu de « déformer » les images sans discernement tout au long du processus de formation, ADA effectue ce processus de manière sélective et juste assez pour que le GAN obtienne toujours les meilleures performances.
Les résultats positifs de la méthode de formation ADA apportent de nombreuses implications importantes dans le domaine de l’intelligence artificielle. Car collecter la quantité nécessaire de données d’entraînement semble simple, mais en réalité c’est très difficile. Par exemple, pour un modèle d’IA de composition littéraire, vous n’aurez pas à vous soucier du manque de données de formation en entrée. Mais dans le cas d’un algorithme d’IA spécialisé dans la détection de troubles neurologiques rares, la simple collecte de suffisamment de données d’entraînement constitue un gros problème. Un modèle GAN formé avec l'approche ADA de NVIDIA peut résoudre le problème ci-dessus.
NVIDIA partagera plus d'informations sur sa nouvelle technique ADA lors des prochaines conférences sur l'IA.