زيادة السرعة - أداة مهمة في تدريب الشبكات العصبية

البيانات هي أهم جزء من التعلم الآلي. بغض النظر عن مدى جودة نموذج وطريقة التدريب ، إذا كانت عينة التدريب صغيرة أو لا تصف معظم حالات العالم الحقيقي ، فسيكون من المستحيل تقريبًا تحقيق عمل عالي الجودة. علاوة على ذلك ، فإن مهمة إنشاء مجموعات بيانات التدريب ليست بأي حال من الأحوال بسيطة ولا تناسب الجميع ، لأنه بالإضافة إلى التعليقات التوضيحية الطويلة والمرهقة للبيانات من قبل الناس ، عادة ما تكون هناك حاجة إلى تمويل إضافي لهذه العملية.


التعزيز ، أو توليد البيانات الجديدة على أساس البيانات المتاحة ، يجعل من الممكن حل بعض مشاكل مجموعة التدريب بسهولة وبتكلفة زهيدة باستخدام الأساليب المتاحة. في حالة الشبكات العصبية ، أصبحت ظاهرة واسعة الانتشار تضيف زيادة مباشرة في عملية التعلم ، وتعديل بيانات كل عصر. ومع ذلك ، يركز عدد قليل جدًا من المقالات على أهمية مثل هذا النهج وما الخصائص التي يجلبها لعملية التعلم. في هذه المقالة سنقوم بتحليل ما هو مفيد يمكن استخراجه من التعزيز على الطاير ، ومدى أهمية اختيار التحولات ومعلماتها في إطار هذا النهج.



 


زيادة: حاليا أو عبر الإنترنت؟


“”, “” “”, . , . , – , , . .


, “” – . : , . , . , “” , . , , AlexNet, ImageNet 2012 . , , : CPU, , GPU. - 1.



 
. 1. -


, , . , , .



: . : , . , , , – , , .


: . , , ( ). , , , ! , , . 2 , .



 
. 2.



, “ ” . , , . , – . , , (, AutoAugment Google, ). – . , , , .


. , : //. – , , . , , (AxialWarp), (RandStructElem) [1] (BrightnessMod). 3.



 
. 3.


, , . , , :


  • ;
  • , , , (, );
  • , . , , 0.9.

( ), , ( ). , , 10% SVHN (Street View House Numbers, , Google Street View), 1. SimpleNet [2] – LeNet , , . , . 4.


1. SimpleNet SVHN


,Error rate,Error rate,
SimpleNet, 310 .2.37%2.17%


 
. 4. ( ) SVHN


,


, . , , , . , , – .


, ResNet- [3] , ( , ). 5. SVHN. , , , (. 2). 2 – , ! , , .



 
. 5. ResNet- . —


2. ResNet SVHN



w:
mul:
Error rate,Error rate,
ResNet, w: 40 ., mul: 1.63 .5.68%5.06%
ResNet, w: 18 ., mul: 730 .6.71%5.73%


. , , – , . , , .


, . “” , . , – , , .


ICMV 2018 (, . ): Gayer, A., Chernyshova, Y., & Sheshkus, A. (2019). Effective real-time augmentation of training dataset for the neural networks learning. Proceedings of SPIE, 11041, 110411I-110411I-8



  1. .. / .., .., .., .. // . 2018. . 32. № 3
  2. Hasanpour S. H., Rouhani M., Mohsen F., Sabokrou M. Let’s keep it simple, Using simple architectures to outperform deeper and more complex architectures // ArXiv e-prints https://arxiv.org/abs/1608.06037
  3. K. He, X. Zhang, S. Ren, and J. Sun. Deep residual learning for image recognition. // ArXiv e-prints https://arxiv.org/abs/1512.03385

All Articles