TL; DR : traduction du post de Chaitanya Joshi "Les transformateurs sont des réseaux de neurones graphiques ": diagrammes, formules, idées, liens importants. Publié avec l'aimable autorisation de l'auteur.
Les amis des centres de donnĂ©es posent souvent la mĂȘme question: Graph Neural Networks est une excellente idĂ©e, mais ont-ils eu de vĂ©ritables histoires de rĂ©ussite? Ont-ils des applications pratiques?
Vous pouvez donner un exemple des options dĂ©jĂ bien connues - les systĂšmes de recommandation sur Pinterest , Alibaba et Twitter . Mais il y a une histoire dĂ©licate de succĂšs: la tempĂȘte qui a pris le traitement industriel de l' architecture en langage naturel du Transformer .
(Transformers). NLP- GNN-, , "" , .
â (representation learning).
NLP
, "" . () (latent/hidden) - . , . , (error/loss functions).
, (natural language processing; NLP), (recurrent neural networks; RNN) â , . RNN , . , RNN, .
, , RNN ( ) .
RNN NLP. : , , (attention mechanism; attention), . , â , "".
2017 , NLP â â RNN. , , !
, Yannic Kilcher.
. , â - â :
, â ( Query, Key Value). , . ! â RNN, .
, :
, softmax . , , , . .
(Multi-Head Attention)
- --- (dot product attention): . , "" (attention heads) () ( "" ):
â - "" , â , .
, "" " ", . .
""
Scale issues and the Feed-forward sub-layer
, - , , : . - (1), - " " , , . - (2), , "". . , (normalization layer).
(2) LayerNorm, . , --- (1).
, , : . , () , ReLU, , :
, , , . ! , LayerNorm . â , .
, !
:
"" , NLP- , . , ("") , (residual connections) "" "". .
GNN
NLP.
(GNN) (GCN) . (, , ). , . GNN (propagate) â â .
, , : , GNN, : "" .
GNN , :
â GNN, â (, , ReLU). â 
, , , / - â , .
, ?
, :
, , Graph Attention Network (GAT). , â â "" !
â , â
, , â , . GNN, (.. ) (.. ) , .
, GNN . â , NLP , .
, , , , , , â . GNN-. , GNN, .
?
, , , .
( , ) : , . TreeLSTM, , , /GNN NLP?
(long-term dependencies)?
: . , , , GNN . - .
NLP-, . , "" LSH (Locality-Sensitive Hashing) . .
, , GNN. , (Binary Partitioning) " ".
NLP- , , , . , â , , â - " ".
, , " ".
"" â GNN , ( , ) , GNN ? .
? ?
. , , - "" . , , .
"" GNN, GAT , MoNet (Gaussian kernels) . . "" ?
, GNN (, ) . " " !
- , ? Yann Dauphin (ConvNet). , , !
, , , , (learning rate schedule), "" (warmup strategy) (decay settings). , , â , â .
, , , .
DeepMind- , - ? " 16 000 "" (warmup), 500 000 "" (decay), 9 000 ".
, , , : , " " ?
" "?
, , (inductive bias), ?
, : The Illustrated Transformer The Annotated Transformer.
GNN : Arthur Szlam Attention/Memory Networks, GNN . - (position paper) DeepMind, â "" â . , , DGL. seq2seq "" "" GNN.
, , GNN NLP ( HuggingFace: Transformers).
Et enfin, nous avons récemment écrit un article dans lequel nous appliquons des transformateurs à un ensemble de données avec des croquis QuickDraw . Vérifiez-le!
Une addition
Le message a également été traduit en chinois . Rejoignez sa discussion sur reddit et sur Twitter !
Traduction de l'anglais: Anton Alekseev
(laboratoire d'intelligence artificielle, POMI RAS du nom de V.A. Steklov)
Pour ses précieux commentaires, le traducteur remercie Denis Kiryanovkirdin et Mikhail Evtikhiev aspr_spb.