大規模言語モデル (LLM) の性能向上とその微調整技術の普及は,様々な下流タスクの性能を引き上げると同時に,自然言語処理の基礎技術である統語解析処理の性能向上にも寄与している.本稿では,LLM の微調整技術であるLoRA SFTを用いた多言語統語解析モデルを提案する.提案手法は,文書を入力とする言語判定+文区切りタスク,文を入力とする単語分割+言語固有品詞推定タスク,文と単語リストを入力とする依存構造解析タスクで構成され,これらのタスクを貫通動作させることで,言語を問わずテキストを入力するだけで依存構造解析結果を得ることができる.Universal Dependenciesの40言語のデータセットを用いた実験により,マルチタスク学習では文区切り精度がボトルネックとなること,単語分割とともに言語固有品詞推定を行うことで単語分割精度が向上する等の知見を得た.研究成果のモデルおよび解析ライブラリは,商用利用可能なライセンスのもとで公開予定である.