< back English ver.

金融ドメインにおける事前学習BERTモデルの性能検証

鈴木 雅弘, 坂地 泰紀, 平野 正徳, 和泉 潔

第18回テキストアナリティクス・シンポジウム, 電子情報通信学会技術研究報告, vol.12, no.178, NLC2021-12, pp. 26-29, Sep. 16, 2021


Conference

第18回テキストアナリティクス・シンポジウム, 電子情報通信学会技術研究報告

Abstract

近年,BERTをはじめとした大規模コーパスによって事前学習された汎用言語モデルが盛んに用いられている.日本語においてもWikipediaによる事前学習モデルがいくつか公開されている.一方で金融分野においては専門的な言い回しが用いられるため,汎用モデルでは十分な効果が得られない可能性がある.本研究では,金融ドメインのコーパスを用いた事前学習モデルを構築し,金融ドメインのタスクにおける評価を行う.

Keywords

自然言語処理; 言語資源; BERT; 金融文書;


Paper

Official page


bibtex

@inproceedings{Suzuki2021-text18,
  title={{金融ドメインにおける事前学習BERTモデルの性能検証}},
  author={鈴木, 雅弘 and 坂地, 泰紀 and 平野, 正徳 and 和泉, 潔},
  booktitle={第18回テキストアナリティクス・シンポジウム, 電子情報通信学会技術研究報告},
  issn={2432-6380},
  volume={12},
  number={178, NLC2021-12},
  pages={26-29},
  url={https://www.ieice.org/ken/paper/20210916yCfG/},
  year={2021}
}