Automatikus összefoglaló generálás magyar nyelvre BERT modellel

Cikkünkben különböző automatikus magyar nyelvű összefoglalást generáló neurális modelleket mutatunk be. Kétféle összefoglaló módszert különböztetünk meg. Az első módszer az absztraktív, amely a meglévő szövegből kinyeri a hasznos információt, majd erre támaszkodva próbál értelmes összefoglaló szöveg...

Teljes leírás

Elmentve itt :
Bibliográfiai részletek
Szerzők: Yang Zijian Győző
Perlaki Attila
Laki László János
Testületi szerző: Magyar Számítógépes Nyelvészeti Konferencia (16.) (2020) (Szeged)
Dokumentumtípus: Könyv része
Megjelent: 2020
Sorozat:Magyar Számítógépes Nyelvészeti Konferencia 16
Kulcsszavak:Nyelvészet - számítógép alkalmazása
Online Access:http://acta.bibl.u-szeged.hu/67658
Leíró adatok
Tartalmi kivonat:Cikkünkben különböző automatikus magyar nyelvű összefoglalást generáló neurális modelleket mutatunk be. Kétféle összefoglaló módszert különböztetünk meg. Az első módszer az absztraktív, amely a meglévő szövegből kinyeri a hasznos információt, majd erre támaszkodva próbál értelmes összefoglaló szöveget generálni. A másik módszer az extraktív, melynek lényege, hogy a meglévő szövegből azokat a mondatokat vagy kifejezéseket nyeri ki, amelyek leginkább leírják a szöveg tartalmi lényegét. A rendszer a kinyert szövegrészeket használja fel összefoglalóként. Kutatásunkban a „state-of-the-art” nyelvi reprezentációs modellnek számító BERT modellt használtuk. A rendszer tanításához különböző neurális modelleket alkalmaztunk. Extraktív összefoglaláshoz kipróbáltunk egy lineáris osztályozó, egy RNN és egy Transformer modellt. Az absztraktív modell tanításához Transformer modellt használtunk.
Terjedelem/Fizikai jellemzők:343-353
ISBN:978-963-306-719-2