Teori grafik dalam pembelajaran mesin untuk yang terkecil

Kompleksitas penyajian data untuk pembelajaran mendalam semakin meningkat setiap hari. Graph Neural Networks ( GNNs ) telah menjadi salah satu terobosan beberapa tahun terakhir. Tapi mengapa tepatnya grafik semakin populer dalam pembelajaran mesin?


Tujuan akhir narasi saya adalah presentasi umum grafik dalam teknik pembelajaran mesin. Artikel ini tidak berpura-pura sebagai karya ilmiah yang sepenuhnya menggambarkan kekuatan penuh grafik, tetapi hanya memperkenalkan pembaca ke dunia yang luar biasa dan kompleks ini. Publikasi ini sempurna, baik untuk para profesional yang berjuang keras yang belum terbiasa dengan presentasi grafik dalam pembelajaran yang mendalam, dan untuk pemula di bidang ini.


pengantar


Secara otomatis menyoroti fitur-fitur penting yang diperlukan untuk menyelesaikan masalah adalah salah satu alasan utama keberhasilan penggunaan pembelajaran mesin. Tetapi secara tradisional, ketika bekerja dengan grafik, pendekatan pembelajaran mesin mengandalkan heuristik yang ditentukan pengguna untuk mengekstraksi fitur pengkodean informasi grafik struktural. Namun demikian, tren beberapa tahun terakhir telah berubah: semakin banyak pendekatan yang muncul di mana mereka secara otomatis belajar membuat kode struktur grafik dalam investasi dimensi rendah menggunakan metode pembelajaran mendalam dan pengurangan dimensi non-linear.


Dalam pembelajaran mesin pada grafik, dua masalah utama dapat dibedakan: penyertaan informasi tentang struktur grafik dalam model (yaitu, cara sederhana untuk menyandikan informasi ini dalam vektor fitur) dan pengurangan dimensi vektor fitur.


( ), . , , .


?


, , : ?


β€” . , , ( ) [1], [2], ( [3], [4] [5]), [6] [7].


CV/ML , , . , , [8].


, . . , , , .



, (embeddings), . , , , , (), Rd. , , . , .


, . , , . , , , .


, (direct encoding), . . , , -. , , , .


DeepWalk node2vec . , . , .


( ). (DNGR SDNE), , [9].



G=(V,E), V, , Eβ€” ( ) , .


(.1). : V=1,2,3,4,5,6E=1,2,1,5,2,3,2,5,3,4,4,5,4,6


gambar


, , , ( , ). .


, G=(V,E)A. , X∈Rmβˆ—|V|( , ). , , AX, z∈Rd, d<<|V|.


, AX, . , , . (, )


- , vizi, / . ; vi( ) , vi( ). , .


gambar



, , , . , (, ) . 2 , , .


gambar


, β€” , , zi∈Rd( zivi∈V):


ENC: Vβ†’Rd


β€” , :


DEC: Rdβˆ—Rdβ†’R+


. , , . , (zi,zj), vivj. , :


DEC(ENC(vi),ENC(vj))=DEC(zi,zj)β‰ˆsG(vi,vj) (1)


sGβ€” , G. , sG(zi,zi)β‰œAi,j, 1, 0. sGvivjG. ( 1) LD:


L=βˆ‘(vi,vj)∈Dβ„“(DEC(zi,zj),sG(vi,vj))


β„“=Rβˆ—Rβ†’Rβ€” , (.. ) DEC(zi,zj)sG(vi,vj).


, -, , . , , , , , .


seq2seq , , . , seq2seq, GNN [10].



, :


  1. sG: Vβˆ—Vβ†’R+, G.
  2. ENC, . , .
  3. DEC, .
  4. β„“, , .

gambar


. , . pG(vj|vi)vj, vi.


, , . , , (.3). , , , .


gambar


DeepWalk node2vec, , , . , , . , , :


DEC(z_i,z_j)β‰œez_iTz_jβˆ‘vk∈VeziTzkβ‰ˆpG,T(v_j|v_i) (2)


pG,T(vj|vi)β€” vjT, vi, TT∈2,...,10. , pG,T(vj|vi). , :


β„“=βˆ‘(vi,vj)∈Dβˆ’log(DEC(zi,zj)) (3)


D, (.. Nvi(vi,vj)∼pG,T(vj|vj). β€” O(|D||V|)( (2) O(|V|)). , DeepWalk node2vec (3). DeepWalk softmax , . , node2vec (3), : , , " ".


, node2vec DeepWalk , , . , node2vec : pq, (.4). p, q. , node2vec , .


gambar


A: , node2vec , p q. , v_sv_βˆ—, (Ξ±) , .


B: , (BFS) (DFS). , BFS, , , . , , DFS, .



, . , :


  1. (.. ). , , .
  2. . (, ), .
  3. . , , ( , ). , , , , .

/ . -, , , .


(DNGR) (SDNE) , : , . , β€” , (.5). DNGR SDNE , .


gambar


visi∈R|V|, viS( Sβ€” Si,j=sG(vi,vj)). sivivi. DNGR SDNE , si, si:


DEC(ENC(si))=DEC(zi)β‰ˆsi


, :


β„“=βˆ‘vi∈V||DEC(zi)βˆ’si||22


, zi, |V|( ), , . SDNE, DNGR, : , (.5).


SDNE DNGR , si, , . DNGR si, , DeepWalk node2vec. SDNE siβ‰œAi, vi.


, SDNE DNGR , ( ), - . |V|, .


, . . , , , [9], . , .



. , , , , , , .


, , , .


. (. O(|E|)), ( ). . , , , , , , β€” , , , . , , , .


. , , - , , . , , , , .


. , , , . , , , . , .


. , , . , , . , , , . , , , , .


, β€” . , , .



[1] β€” W. L. Hamilton, Z. Ying, and J. Leskovec, "Inductive representation learning on large graphs," NIPS 2017, pp. 1024–1034, 2017.
[2] β€” T. N. Kipf and M. Welling, "Semi-supervised classification with graph convolutional networks," ICLR 2017, 2017.
[3] β€” A. Sanchez-Gonzalez, N. Heess, J. T. Springenberg, J. Merel, M. Riedmiller, R. Hadsell, and P. Battaglia, "Graph networks as learnable physics engines for inference and control," arXiv
preprint arXiv:1806.01242, 2018.
[4] β€” P. Battaglia, R. Pascanu, M. Lai, D. J. Rezende et al., "Interaction networks for learning about objects, relations and physics," in NIPS 2016, 2016, pp. 4502–4510.
[5] β€” A. Fout, J. Byrd, B. Shariat, and A. Ben-Hur, "Protein interface prediction using graph convolutional networks," in NIPS 2017, 2017, pp. 6530–6539.
[6] β€” T. Hamaguchi, H. Oiwa, M. Shimbo, and Y. Matsumoto, "Knowledge transfer for out-of-knowledge-base entities: A graph neural network approach," in IJCAI 2017, 2017, pp. 1802–1808.
[7] β€” H. Dai, E. B. Khalil, Y. Zhang, B. Dilkina, and L. Song, "Learning combinatorial optimization algorithms over graphs," arXiv preprint arXiv:1704.01665, 2017.
[8] β€” X. Liang, X. Shen, J. Feng, F. Lin, S. Yan, "Semantic Object Parsing with Graph LSTM", arXiv:1603.07063v1 [cs.CV] 23 Mar 2016.
[9] β€” Z. Wu, S. Pan, F. Chen, G. Long, C. Zhang, Philip S. Yu, "A Comprehensive Survey on Graph Neural Networks", arXiv:1901.00596v4 [cs.LG] 4 Dec 2019.
[10] - P. VeličkoviΔ‡, G. Cucurull, A. Casanova, A. Romero, P. LiΓ², Y. Bengio, β€œGraph Attention Networks”, arXiv: 1710.10903v3 [stat.ML] 4 Feb 2018.


Referensi


Grafik Neural Networks: Tinjauan Metode dan Representasi Aplikasi
Belajar pada Grafik: Metode dan Aplikasi

Source: https://habr.com/ru/post/undefined/


All Articles