[Preprint] June 23, 2023
本研究では,日本語インストラクションデータを用い,日本語と英語のそれぞれをベースにした大規模言語モデル (LLM) に対してLoRAチューニングを行った.チューニングしたモデルに対し定量と定性による両面から評価を行い,日本語インストラクションデータによるチューニングの効果を確認した.また幅広いインストラクションデータや実際のモデルが出力した文字列による評価の必要性など,日本語における大規模言語モデルや言語資源における課題を明らかにした.
大規模言語モデル; 日本語; インストラクションチューニング;
@preprint{Suzuki2023-llm-ja, title={{日本語インストラクションデータを用いた対話可能な日本語大規模言語モデルのLoRAチューニング}}, author={鈴木, 雅弘 and 平野, 正徳 and 坂地, 泰紀}, doi={10.51094/jxiv.422}, year={2023} }