Atualmente, é difícil encontrar um problema que ainda não foi proposto para ser resolvido por redes neurais. E em muitos problemas outros métodos nem são mais considerados. Em tal situação, é lógico que, em busca da “bala de prata”, pesquisadores e tecnólogos ofereçam cada vez mais novas modificações nas arquiteturas de redes neurais, que devem trazer aos candidatos “felicidade para todos, por nada e para que ninguém se ofenda!” No entanto, em problemas industriais, muitas vezes acontece que a precisão do modelo depende principalmente da limpeza, tamanho e estrutura da amostra de treinamento, e o modelo de rede neural requer uma interface razoável (por exemplo, é desagradável quando a resposta lógica deve ser uma lista de tamanho variável).
Outra coisa é produtividade, velocidade. Aqui a dependência da arquitetura é direta e bastante previsível. No entanto, nem todos os cientistas estão interessados. É muito mais agradável pensar por séculos, épocas, mirar mentalmente por um século em que magicamente o poder da computação será inimaginável e a energia extraída do ar. No entanto, também existem pessoas mundanas suficientes. E é importante para eles que as redes neurais sejam mais compactas, mais rápidas e com maior eficiência energética no momento. Por exemplo, isso é importante ao trabalhar em dispositivos móveis e em sistemas embarcados onde não há uma placa de vídeo poderosa ou você precisa economizar bateria. Muito foi feito nessa direção: aqui estão redes neurais inteiras de pequeno porte, a remoção de excesso de neurônios, decomposições de decomposição de tensores e muito mais.
, , . .

, , “ ” - . , , . . , . , , , .
, , , , . , , . . . Labor omnia vīcit improbus et dūrīs urgēns in rēbus egestās.
, — . 90- [1, 2]. . , [3], [4]. , , . [5], [6]. , . .
, , , , .
:
, , .
(-), . , . , 4 , :
. :
:
— , — . , , . , , (), — (). . , — , . , , — , . - .
- . 1. ReLU 4 : . . , .
, , . , , . (, -), — .

. 1. .
, - :
, . , . , , .
, , , : - ! , . ( 1) ( 2). ? , . , .
, -: - , , -, , . - : , , , .
, , , incremental learning — , . . - , . “” — ( 1), — ( 2). “” , , . , -, , , -.
MNIST
MNIST — , 60000 28 28. 10000 . 10% , — . . 2.

. 2. MNIST.
:
conv(n, w_x, w_y) — n w_x w_y;
fc(n) — n ;
maxpool(w_x, w_y) — max-pooling w_x w_y;
dropout(p) — dropout p;
relu — ;
softmax — softmax.
MNIST :
CNN1: conv1(30, 5, 5) — relu1 — dropout1(0,2) — fc1(10) — softmax1.
CNN2: conv1(40, 5, 5) — relu1 — maxpool1(2, 2) — conv2(40, 5, 5) — relu2 — fc1(200) — relu3 — dropout1(0,3) — fc2(10) — softmax1.
. 1. “” . () ().
1. MNIST. — , — .
-, , - . , - , . , .
: . , . : - .
MRZ
MRZ- , (. . 3). 280 000 21 17 37 MRZ, .

. 3. MRZ .
CNN3: conv1(8, 3, 3) — relu1 — conv2(30, 5, 5) — relu2 — conv3(30, 5, 5) — relu3 — dropout1(0,25) — fc1(37) — softmax1.
CNN4: conv1(8, 3, 3) — relu1 — conv2(8, 5, 5) — relu2 — conv3(8, 3, 3) — relu3 — dropout1(0,25) — conv4(12, 5, 5) — relu4 — conv5(12, 3, 3) — relu5 — conv6(12, 1, 1) — relu6 — fc1(37) — softmax1.
2. “” . () ().
, MNIST: -, , . - , - .
2. MRZ. — , — .
, , . , - . MNIST MRZ.
? , - . , (, ) . , — TPU, .
, , : , .
PS. ICMV 2019:
E. Limonova, D. Matveev, D. Nikolaev and V. V. Arlazarov, “Bipolar morphological neural networks: convolution without multiplication,” ICMV 2019, 11433 ed., Wolfgang Osten, Dmitry Nikolaev, Jianhong Zhou, Ed., SPIE, Jan. 2020, vol. 11433, ISSN 0277-786X, ISBN 978-15-10636-43-9, vol. 11433, 11433 3J, pp. 1-8, 2020, DOI: 10.1117/12.2559299.
- G. X. Ritter and P. Sussner, “An introduction to morphological neural networks,” Proceedings of 13th International Conference on Pattern Recognition 4, 709–717 vol.4 (1996).
- P. Sussner and E. L. Esmi, Constructive Morphological Neural Networks: Some Theoretical Aspects and Experimental Results in Classification, 123–144, Springer Berlin Heidelberg, Berlin, Heidelberg (2009).
- G. X. Ritter, L. Iancu, and G. Urcid, “Morphological perceptrons with dendritic structure,” in The 12th IEEE International Conference on Fuzzy Systems, 2003. FUZZ ’03., 2, 1296–1301 vol.2 (May 2003).
- G. X. Ritter and G. Urcid, “Lattice algebra approach to single-neuron computation,” IEEE Transactions on Neural Networks 14, 282–295 (March 2003).
- H. Sossa and E. Guevara, “Efficient training for dendrite morphological neural networks,” Neurocomputing 131, 132–142 (05 2014).
- E. Zamora and H. Sossa, “Dendrite morphological neurons trained by stochastic gradient descent,” in 2016 IEEE Symposium Series on Computational Intelligence (SSCI), 1–8 (Dec 2016).