2018 war ein Wendepunkt fĂŒr die Entwicklung von Modellen fĂŒr maschinelles Lernen zur Lösung von Problemen der Textverarbeitung (oder genauer gesagt der Verarbeitung natĂŒrlicher Sprache (NLP)). Das konzeptionelle VerstĂ€ndnis, wie Wörter und SĂ€tze dargestellt werden können, um ihre semantischen Bedeutungen und Beziehungen zwischen ihnen am genauesten zu extrahieren, wĂ€chst rasant. DarĂŒber hinaus fördert die NLP-Community unglaublich leistungsstarke Tools, die heruntergeladen und kostenlos in ihren Modellen und Pipelines verwendet werden können. Dieser Wendepunkt wird auch als ImageNet-Moment von NLP bezeichnet und bezieht sich auf den Moment vor einigen Jahren, als Ă€hnliche Entwicklungen die Entwicklung des maschinellen Lernens im Bereich der Computer-Vision-Probleme erheblich beschleunigten.
![transformator-ber-ulmfit-elmo](https://habrastorage.org/webt/uh/cd/qv/uhcdqv--w2t4i8srv9rtzjgk9ac.png)
(ULM-FiT hat nichts mit Korzhik zu tun, aber etwas Besseres ist nicht eingetreten)
â BERT', , NLP. BERT â , NLP-. , , BERT', . , , , .
![Bert-Transfer-Lernen](https://habrastorage.org/webt/pz/zk/xy/pzzkxyzmqf21r5rik00228zntwm.png)
BERT'. 1: ( ); 2: .
BERT , NLP-, , : Semi-supervised Sequence learning ( â Andrew Dai Quoc Le), ELMo ( â Matthew Peters AI2 UW CSE), ULMFiT ( â fast.ai Jeremy Howard Sebastian Ruder), OpenAI Transformer ( â OpenAI Radford, Narasimhan, Salimans, Sutskever) (Vaswani et al).
, , BERT'. , , .
:
BERT â . :
![Bert-Klassifizierungs-Spam](https://habrastorage.org/webt/mx/eo/u_/mxeou__qytr_9_2m6pxjo2icemc.png)
, , (classifier) BERT' . (fine-tuning), Semi-supervised Sequence Learning ULMFiT.
, : , . . («» « »).
![Spam-beschrifteter Datensatz](https://habrastorage.org/webt/hy/qr/pa/hyqrpadlqytj81eqk3xtkyr3fcu.png)
BERT':
- (sentiment analysis)
- (fact-checking):
- : . : «» (Claim) « » (Not Claim)
- / :
- : (Claim sentence). : «» «»
- Full Fact â , . , , ( , , , )
- :
, BERT', , .
![Bert-Base-Bert-Large](https://habrastorage.org/webt/i3/u4/fq/i3u4fq9cclcq0-zeqfk56b5y78i.png)
BERT' :
- BERT BASE () â OpenAI Transformer;
- BERT LARGE () â , (state of the art), .
, BERT â . . , â BERTâ , .
![Bert-Base-Bert-Large-Encoder](https://habrastorage.org/webt/6k/ce/se/6kcesezyar2zqppjc31sfkcsxak.png)
BERT' ( « » (Transformer Blocks)): 12 24 . (768 1024 ) «» (attention heads)(12 16 ), , (6 , 512 , 8 «» ).
![Bert-Input-Output](https://habrastorage.org/webt/ed/7k/go/ed7kgoai63syz-koc-_tlqs0gwk.png)
[CLS] , . CLS .
, , BERT , . (self-attention) , .
![Bert-Encoder-Eingang](https://habrastorage.org/webt/jp/kd/qs/jpkdqszmo06ogw7xbfk1tqmz0kw.png)
, ( , ). .
hidden_size (768 BERT'). , , ( [CLS]).
![Bert-Output-Vektor](https://habrastorage.org/webt/at/9b/xe/at9bxefqh-vnkxlc-xkuxlgi13s.png)
. , .
![Bert-Klassifikator](https://habrastorage.org/webt/ee/lg/99/eelg99xutp6h7oztqyyz3hv-5e4.png)
(, «», « », « », «» .), .
, , , VGGNet .
![vgg-net-klassifikator](https://habrastorage.org/webt/sl/37/yf/sl37yfo6xriqw24ule31ukksi8q.png)
. , NLP- , : Word2Vec GloVe. , , , .
, . Word2Vec , ( ), , (.. , «» â «» «» â «»), (, , «» «» , «» «»).
, , , . , Word2Vec GloVe. GloVe «stick» ( â 200):
![Einbettung von Handschuhen](https://habrastorage.org/webt/l1/u-/ad/l1u-admk5irbjkb__sq90albkx0.png)
«stick» GloVe â 200 ( 2 ).
.
![VektorkÀsten](https://habrastorage.org/webt/gz/ji/ee/gzjieex8v-pmouar89ocbbzan-e.png)
ELMo:
GloVe, «stick» . « », â NLP- ( Peters et. al., 2017, McCann et. al., 2017 Peters et. al., 2018 ELMo). â « «stick» , . , â , , ?». (contextualized word-embeddings).
![Elmo-Embedding-Robin-Williams](https://habrastorage.org/webt/jr/rt/hb/jrrthbwj9xdzd4vgs5ckjgayv0m.png)
.
, , ELMo , . (bi-directional LSTM), .
![Elmo-Wort-Einbettung](https://habrastorage.org/webt/bf/yw/qq/bfywqqcnnk6cw6hr3l3fbl-xq-i.png)
ELMo NLP. ELMo LSTM , , .
ELMo?
ELMo â , (language modeling). , , .
![Bert-Sprachmodellierung](https://habrastorage.org/webt/mq/j1/bo/mqj1bozk08fff_cglqbdcatcuao.png)
ELMo: «Let's stick to», â . . , . , , , , «hang», «out» ( «hang out»), «camera».
, LSTM - ELMo. , .
, ELMo LSTM â , «» , .
![Einbettung von elmo-forward-backward-language-model](https://habrastorage.org/webt/0w/re/y4/0wrey4vtsshgd7wcgvi_k_cguzk.png)
ELMo
ELMo ( ) ( ).
![Elmo-Einbettung](https://habrastorage.org/webt/d8/dq/ch/d8dqchc0wxmoxmg2e79fnahk3ru.png)
ULM-FiT: NLP
ULM-FiT , â . ULM-FiT .
NLP , , , .
, , , , NLP- LSTM. .
- . ? , (.. , )?
, , NLP-. . : , ( ).
![openai-transformator-1](https://habrastorage.org/webt/3p/-d/q3/3p-dq3wsky9bqnz6mdfv6-y-r2o.png)
OpenAI Transformer
12 . - , . , ( ).
: , . 7 . , .. , â , , .
![Openai-Transformator-Sprachmodellierung](https://habrastorage.org/webt/8d/l0/4k/8dl04ko7gbfw9kiq_jlg5ve281w.png)
OpenAI Transformer 7000
, OpenAI Transformer , . ( «» « »):
![Openai-Transformator-Satz-Klassifikation](https://habrastorage.org/webt/-l/fo/hr/-lfohrojznururmmrni-ykoqnog.png)
OpenAI , . :
![Openai-Input-Transformationen](https://habrastorage.org/webt/mb/aw/na/mbawnanchccikwp7z4hhe1n0tbi.png)
, ?
BERT:
OpenAI Transformer , . - LSTM . ELMo , OpenAI Transformer . , , ( â « , »)?
« », â .
(masked language model)
« », â .
« !» â . â « , .»
« », â .
![BERT-Sprachmodellierung-maskiert-lm](https://habrastorage.org/webt/z7/m-/qm/z7m-qmmtz724m8viviqejgzsmjs.png)
BERT «» 15% .
â , BERT , « » (masked language model) ( «-»).
15% , BERT , . .
OpenAI Transformer, , - (, ? , ?).
, BERT , : ( ); , ?
![Bert-Next-Satz-Vorhersage](https://habrastorage.org/webt/rz/hr/jf/rzhrjfq5iyequzyykq9tp0urdic.png)
, BERT â . , .. BERT WordPieces, â .
BERT' .
![Bert-Aufgaben](https://habrastorage.org/webt/03/8i/a7/038ia7qjndp3qhcz8pdkcd_14nw.png)
a) : MNLI, QQP, QNLI, STS-B, MRPC, RTE, SWAG; b) : SST-2, CoLA; c) - : SQuAD v1.1; d) : CoNLL-2003 NER.
BERT
â BERT. ELMo, BERT' . â , , , , (named-entity recognition).
![Bert-Contexualized-Einbettungen](https://habrastorage.org/webt/ob/pa/a6/obpaa6snqryacqb9vbyaahue7zc.png)
? . 6 ( , 96,4):
![Bert-Feature-Extraktion-Kontextualisierte-Einbettungen](https://habrastorage.org/webt/ir/vr/sv/irvrsv9mefroz7io6ilnjng3fo4.png)
- BERT'
BERT â BERT FineTuning with Cloud TPUs, Google Colab. Cloud TPU, , .. BERT' TPU, CPU GPU.
â BERT':
PyTorch- BERT'. AllenNLP BERT'a .