Teoria dos grafos no aprendizado de máquina para os menores

A complexidade da apresentação de dados para aprendizado profundo está aumentando a cada dia. As redes neurais de gráfico ( GNNs ) tornaram-se um dos avanços dos últimos anos. Mas por que exatamente os gráficos estão ganhando cada vez mais popularidade no aprendizado de máquina?


O objetivo final da minha narrativa é uma apresentação geral de gráficos em técnicas de aprendizado de máquina. O artigo não pretende ser um trabalho científico que descreva completamente todo o poder dos gráficos, mas apenas apresenta ao leitor esse mundo incrível e complexo. A publicação é perfeita, tanto para profissionais dedicados à batalha que ainda não estão familiarizados com a apresentação de gráficos em aprendizado profundo, quanto para iniciantes neste campo.


Introdução


O destaque automático dos recursos importantes necessários para resolver um problema é uma das principais razões para o uso bem-sucedido do aprendizado de máquina. Porém, tradicionalmente, ao trabalhar com gráficos, as abordagens de aprendizado de máquina contam com heurísticas definidas pelo usuário para extrair os recursos de codificação das informações gráficas estruturais. No entanto, a tendência dos últimos anos mudou: estão surgindo cada vez mais abordagens nas quais eles aprendem automaticamente a codificar a estrutura gráfica em investimentos de baixa dimensão usando métodos de aprendizado profundo e redução não linear de dimensões.


No aprendizado de máquina em gráficos, dois problemas centrais podem ser distinguidos: a inclusão de informações sobre a estrutura do gráfico no modelo (ou seja, uma maneira simples de codificar essas informações no vetor de característica) e a redução na dimensão do vetor de característica.


( ), . , , .


?


, , : ?


— . , , ( ) [1], [2], ( [3], [4] [5]), [6] [7].


CV/ML , , . , , [8].


, . . , , , .



, (embeddings), . , , , , (), Rd. , , . , .


, . , , . , , , .


, (direct encoding), . . , , -. , , , .


DeepWalk node2vec . , . , .


( ). (DNGR SDNE), , [9].



G=(V,E), V, , E— ( ) , .


(.1). : V=1,2,3,4,5,6E=1,2,1,5,2,3,2,5,3,4,4,5,4,6


imagem


, , , ( , ). .


, G=(V,E)A. , XRm|V|( , ). , , AX, zRd, d<<|V|.


, AX, . , , . (, )


- , vizi, / . ; vi( ) , vi( ). , .


imagem



, , , . , (, ) . 2 , , .


imagem


, — , , ziRd( ziviV):


ENC: VRd


— , :


DEC: RdRdR+


. , , . , (zi,zj), vivj. , :


DEC(ENC(vi),ENC(vj))=DEC(zi,zj)sG(vi,vj) (1)


sG— , G. , sG(zi,zi)Ai,j, 1, 0. sGvivjG. ( 1) LD:


L=(vi,vj)D(DEC(zi,zj),sG(vi,vj))


=RRR— , (.. ) DEC(zi,zj)sG(vi,vj).


, -, , . , , , , , .


seq2seq , , . , seq2seq, GNN [10].



, :


  1. sG: VVR+, G.
  2. ENC, . , .
  3. DEC, .
  4. , , .

imagem


. , . pG(vj|vi)vj, vi.


, , . , , (.3). , , , .


imagem


DeepWalk node2vec, , , . , , . , , :


DEC(z_i,z_j)ez_iTz_jvkVeziTzkpG,T(v_j|v_i) (2)


pG,T(vj|vi)vjT, vi, TT2,...,10. , pG,T(vj|vi). , :


=(vi,vj)Dlog(DEC(zi,zj)) (3)


D, (.. Nvi(vi,vj)pG,T(vj|vj). — O(|D||V|)( (2) O(|V|)). , DeepWalk node2vec (3). DeepWalk softmax , . , node2vec (3), : , , " ".


, node2vec DeepWalk , , . , node2vec : pq, (.4). p, q. , node2vec , .


imagem


A: , node2vec , p q. , v_sv_, (α) , .


B: , (BFS) (DFS). , BFS, , , . , , DFS, .



, . , :


  1. (.. ). , , .
  2. . (, ), .
  3. . , , ( , ). , , , , .

/ . -, , , .


(DNGR) (SDNE) , : , . , — , (.5). DNGR SDNE , .


imagem


visiR|V|, viS( SSi,j=sG(vi,vj)). sivivi. DNGR SDNE , si, si:


DEC(ENC(si))=DEC(zi)si


, :


=viV||DEC(zi)si||22


, zi, |V|( ), , . SDNE, DNGR, : , (.5).


SDNE DNGR , si, , . DNGR si, , DeepWalk node2vec. SDNE siAi, vi.


, SDNE DNGR , ( ), - . |V|, .


, . . , , , [9], . , .



. , , , , , , .


, , , .


. (. O(|E|)), ( ). . , , , , , , — , , , . , , , .


. , , - , , . , , , , .


. , , , . , , , . , .


. , , . , , . , , , . , , , , .


, — . , , .



[1] — W. L. Hamilton, Z. Ying, and J. Leskovec, "Inductive representation learning on large graphs," NIPS 2017, pp. 1024–1034, 2017.
[2] — T. N. Kipf and M. Welling, "Semi-supervised classification with graph convolutional networks," ICLR 2017, 2017.
[3] — A. Sanchez-Gonzalez, N. Heess, J. T. Springenberg, J. Merel, M. Riedmiller, R. Hadsell, and P. Battaglia, "Graph networks as learnable physics engines for inference and control," arXiv
preprint arXiv:1806.01242, 2018.
[4] — P. Battaglia, R. Pascanu, M. Lai, D. J. Rezende et al., "Interaction networks for learning about objects, relations and physics," in NIPS 2016, 2016, pp. 4502–4510.
[5] — A. Fout, J. Byrd, B. Shariat, and A. Ben-Hur, "Protein interface prediction using graph convolutional networks," in NIPS 2017, 2017, pp. 6530–6539.
[6] — T. Hamaguchi, H. Oiwa, M. Shimbo, and Y. Matsumoto, "Knowledge transfer for out-of-knowledge-base entities: A graph neural network approach," in IJCAI 2017, 2017, pp. 1802–1808.
[7] — H. Dai, E. B. Khalil, Y. Zhang, B. Dilkina, and L. Song, "Learning combinatorial optimization algorithms over graphs," arXiv preprint arXiv:1704.01665, 2017.
[8] — X. Liang, X. Shen, J. Feng, F. Lin, S. Yan, "Semantic Object Parsing with Graph LSTM", arXiv:1603.07063v1 [cs.CV] 23 Mar 2016.
[9] — Z. Wu, S. Pan, F. Chen, G. Long, C. Zhang, Philip S. Yu, "A Comprehensive Survey on Graph Neural Networks", arXiv:1901.00596v4 [cs.LG] 4 Dec 2019.
[10] - P. Veličković, G. Cucurull, A. Casanova, A. Romero, P. Liò, Y. Bengio, “Graph Attention Networks”, arXiv: 1710.10903v3 [stat.ML] 4 de fevereiro de 2018.


Referências


Redes neurais de grafos: uma revisão dos métodos e da representação de aplicativos
Aprendendo sobre gráficos: métodos e aplicativos

Source: https://habr.com/ru/post/undefined/


All Articles