Augmentation on the fly - ein wichtiges Instrument beim Training neuronaler Netze

Der wichtigste Teil des maschinellen Lernens sind Daten. Unabhängig davon, wie gut das Modell und die Trainingsmethode sind, wenn die Trainingsstichprobe klein ist oder die meisten Fälle der realen Welt nicht beschreibt, wird es fast unmöglich sein, qualitativ hochwertige Arbeit zu leisten. Gleichzeitig ist die Erstellung von Trainingsdatensätzen keineswegs einfach und nicht für jedermann geeignet, da neben der langen und anstrengenden Annotation von Daten durch Personen in der Regel zusätzliche Mittel für diesen Prozess erforderlich sind.


Die Erweiterung oder die Generierung neuer Daten auf der Grundlage der verfügbaren Daten ermöglicht es, einige der Probleme mit dem Trainingssatz mit improvisierten Methoden ganz einfach und kostengünstig zu lösen. Im Fall von neuronalen Netzen ist es ein weit verbreitetes Phänomen geworden, die Erweiterung direkt in den Lernprozess einzubetten und die Daten jeder Epoche zu modifizieren. Eine sehr kleine Anzahl von Artikeln befasst sich jedoch mit der Bedeutung eines solchen Ansatzes und den Eigenschaften, die er für den Lernprozess mit sich bringt. In diesem Artikel werden wir analysieren, was nützlich ist, um aus der Erweiterung im laufenden Betrieb extrahiert zu werden, und wie kritisch die Auswahl der Transformationen und ihrer Parameter im Rahmen dieses Ansatzes ist.



 


Augmentation: offline oder online?


“”, “” “”, . , . , – , , . .


, “” – . : , . , . , “” , . , , AlexNet, ImageNet 2012 . , , : CPU, , GPU. - 1.



 
. 1. -


, , . , , .



: . : , . , , , – , , .


: . , , ( ). , , , ! , , . 2 , .



 
. 2.



, “ ” . , , . , – . , , (, AutoAugment Google, ). – . , , , .


. , : //. – , , . , , (AxialWarp), (RandStructElem) [1] (BrightnessMod). 3.



 
. 3.


, , . , , :


  • ;
  • , , , (, );
  • , . , , 0.9.

( ), , ( ). , , 10% SVHN (Street View House Numbers, , Google Street View), 1. SimpleNet [2] – LeNet , , . , . 4.


1. SimpleNet SVHN


,Error rate,Error rate,
SimpleNet, 310 .2.37%2.17%


 
. 4. ( ) SVHN


,


, . , , , . , , – .


, ResNet- [3] , ( , ). 5. SVHN. , , , (. 2). 2 – , ! , , .



 
. 5. ResNet- . —


2. ResNet SVHN



w:
mul:
Error rate,Error rate,
ResNet, w: 40 ., mul: 1.63 .5.68%5.06%
ResNet, w: 18 ., mul: 730 .6.71%5.73%


. , , – , . , , .


, . “” , . , – , , .


ICMV 2018 (, . ): Gayer, A., Chernyshova, Y., & Sheshkus, A. (2019). Effective real-time augmentation of training dataset for the neural networks learning. Proceedings of SPIE, 11041, 110411I-110411I-8



  1. .. / .., .., .., .. // . 2018. . 32. № 3
  2. Hasanpour S. H., Rouhani M., Mohsen F., Sabokrou M. Let’s keep it simple, Using simple architectures to outperform deeper and more complex architectures // ArXiv e-prints https://arxiv.org/abs/1608.06037
  3. K. He, X. Zhang, S. Ren, and J. Sun. Deep residual learning for image recognition. // ArXiv e-prints https://arxiv.org/abs/1512.03385

All Articles