NVIDIA ha desarrollado un nuevo enfoque para entrenar redes generativas adversarias (GAN). Este método requiere muchos menos datos de entrada que los métodos populares actualmente. Mientras que la calidad de la formación sigue estando absolutamente garantizada.
Si no lo sabes, GAN es un sistema de IA que consta de 2 partes separadas:
- La primera es la red generativa, que ayuda a crear muestras de entrenamiento (datos falsos), con el objetivo de crear los datos más realistas.
- La segunda es la red Discriminativa: cuya tarea es tratar de distinguir entre datos reales y datos falsos, y luego utilizar estos datos para "reentrenar" la propia Red Generativa.

modelo GAN
Los sistemas GAN se han aplicado en muchas tareas intensivas, como convertir subtítulos en historias según cada contexto, especialmente en la creación de fotografías y vídeos artificiales con un realismo altísimo.
Básicamente, para poder producir resultados confiables con alta consistencia, los modelos GAN tradicionales requerirán un mínimo de 50.000 a 100.000 imágenes como datos de entrenamiento de entrada. Si la cantidad de datos de entrenamiento es demasiado pequeña, el modelo GAN tiende a sufrir un problema llamado "sobreajuste". En este caso, la red Discriminativa no tendrá base suficiente para entrenar e interactuar con la red Generativa de manera efectiva.
En el pasado, un método común que utilizaban los investigadores de IA para tratar de resolver el problema de la falta de datos de entrenamiento era utilizar una técnica llamada "aumento de datos". Usando nuevamente el algoritmo de imagen como ejemplo, en ausencia de suficientes datos de entrenamiento necesarios, los expertos intentarán resolver el problema creando copias "distorsionadas" de las imágenes existentes, como recortar, rotar o voltear una imagen original para cree varias imágenes como datos de entrenamiento adicionales. La idea aquí es no permitir que el modelo GAN vea exactamente la misma imagen dos veces.
Sin embargo, el problema con este enfoque es que puede hacer que la GAN aprenda a imitar cambios no naturales en los datos de entrenamiento, en lugar de crear algo nuevo. Para solucionar el problema, NVIDIA ha desarrollado un nuevo método llamado “Aumento de diferenciación adaptativa (ADA). El núcleo siguen siendo las técnicas de aumento de datos, pero implementadas de forma adaptativa. En lugar de "distorsionar" indiscriminadamente las imágenes durante todo el proceso de entrenamiento, ADA realiza este proceso de forma selectiva y lo suficiente para que GAN siga logrando el mejor rendimiento.
Los resultados positivos del método de entrenamiento ADA traen muchas implicaciones importantes en el campo de la inteligencia artificial. Porque recopilar la cantidad necesaria de datos de entrenamiento parece sencillo, pero en realidad es muy difícil. Por ejemplo, para un modelo de IA de composición literaria, no tendrá que preocuparse por la falta de datos de entrenamiento de entrada. Pero en el caso de un algoritmo de IA que se especializa en detectar trastornos neurológicos raros, simplemente recopilar suficientes datos de entrenamiento es un gran problema. Un modelo GAN entrenado con el enfoque ADA de NVIDIA puede resolver el problema anterior.
NVIDIA compartirá más información sobre su nueva técnica ADA en las próximas conferencias de IA.