研究論文

言語処理学会 (NLP)
2026
大規模言語モデルにおけるプロンプト変動が出力に対する影響について、様々な文脈で研究されており、用語は多数存在する。本研究は、既存研究で混在してきた概念を「頑健性」と「可制御性」の二軸から再構造化する。さらに、公開データセットを前提とした従来の分析とは異なり、複雑なタスク構成や追加知識の記述を要するビジネスサービス環境に着目し、両概念の重要度を体系的に評価した。実験の結果、我々が考察したタスクにおいては、先行研究で強調されてきた頑健性よりも、プロンプト意図を確実に反映し必要情報を安定して引き出す可制御性が実運用において本質的であることが明らかとなった。本研究は、ビジネス環境に適したプロンプト設計指針の再考に寄与するとともに、将来の評価指標構築やモデル改善への示唆を提供する。
言語処理学会 (NLP)
2026
大規模マルチラベル分類においてラベルノイズは不可避な課題である.既存のGeneralized Cross Entropyは,損失の大きさに応じてノイズを判定するため学習が難しい事例をノイズと誤認して学習への影響を低下させ,網羅性を損なう.本研究は意味的類似度に基づく自己推定型損失重み付け手法を提案する.提案手法はラベルの学習中のモデルによる事例とラベルの意味的類似性に応じて,事例–ラベル単位で重みを適応的に与える.具体的には,意味的類似性が低い正例への学習を抑制すると同時に, 意味的に類似した負例への学習の寄与を緩和することで潜在的な正例を保護する.人工ノイズ環境下の実験において,提案手法は既存手法と比較して高頻度ラベルの精度 (P@1) および頻度バイアスを除去した精度 (PSP@1) を改善した.
言語処理学会 (NLP)
2026
大村 舞 (大阪樟蔭女子大学), 若狭 絢 (東北大学), 松田 寛, 浅原 正幸 (国立国語研究所)
本研究では,日本語日常会話コーパス (CEJC) をUniversal Dependencies形式に変換した日本語話し言葉のツリーバンク UD Japanese-CEJCを開発・構築したので,そのデータについて報告する.日本語日常会話コーパスは,日本語の様々な日常会話を収録した大規模な音声言語コーパスであり,単語区切りや品詞のアノテーションが含まれている.我々は,UD Japanese-CEJCのために,CEJCの長単位形態論情報と文節係り受け情報を新たにアノテーションした.UD Japanese-CEJCは日本語形態論情報と文節 ベースの依存構造情報およびCEJCから手作業で整備された変換ルールに従って構築した.構築したUD Japanese-CEJCに対して,日本語書き言葉コーパスとの比較やUD依存構造解析精度の評価をおこない,CEJCにおけるUD構築に関する様々な問題点を検討した.
言語処理学会 (NLP)
2026
松田 寛, 浅原 正幸(国立国語研究所)
大規模言語モデル (LLM) の性能向上とその微調整技術の普及は,様々な下流タスクの性能を引き上げると同時に,自然言語処理の基礎技術である統語解析処理の性能向上にも寄与している.本稿では,LLM の微調整技術であるLoRA SFTを用いた多言語統語解析モデルを提案する.提案手法は,文書を入力とする言語判定+文区切りタスク,文を入力とする単語分割+言語固有品詞推定タスク,文と単語リストを入力とする依存構造解析タスクで構成され,これらのタスクを貫通動作させることで,言語を問わずテキストを入力するだけで依存構造解析結果を得ることができる.Universal Dependenciesの40言語のデータセットを用いた実験により,マルチタスク学習では文区切り精度がボトルネックとなること,単語分割とともに言語固有品詞推定を行うことで単語分割精度が向上する等の知見を得た.研究成果のモデルおよび解析ライブラリは,商用利用可能なライセンスのもとで公開予定である.
AIDB Workshop - VLDB
2025
Chen Shen, Jin Wang, Sajjadur Rahman, Eser Kandogan
The text-to-SQL problem aims to translate natural language questions into SQL statements to ease the interaction between database systems and end users. Recently, Large Language Models (LLMs) have exhibited impressive capabilities in a variety of tasks, including text-to-SQL. While prior works have explored various strategies for prompting LLMs to generate SQL statements, they still fall short of fully harnessing the power of LLM due to the lack of (1) high-quality contextual information when constructing the prompts and (2) robust feedback mechanisms to correct translation errors. To address these challenges, we propose MageSQL, a text-to-SQL approach based on in-context learning over LLMs. MageSQL explores a suite of techniques that leverage the syntax and semantics of SQL queries to identify relevant few-shot demonstrations as context for prompting LLMs. In particular, we introduce a graphbased demonstration selection method — the first of its kind in the text-to-SQL problem — that leverages graph contrastive learning adapted with SQL-specific data augmentation strategies. Furthermore, an error correction module is proposed to detect and fix potential inaccuracies in the generated SQL query. We conduct comprehensive evaluations on several benchmarking datasets. The results show that our proposed methods outperform state-of-the-art methods by an obvious margin.