言語処理学会 (NLP)

2026
大規模マルチラベル分類においてラベルノイズは不可避な課題である.既存のGeneralized Cross Entropyは,損失の大きさに応じてノイズを判定するため学習が難しい事例をノイズと誤認して学習への影響を低下させ,網羅性を損なう.本研究は意味的類似度に基づく自己推定型損失重み付け手法を提案する.提案手法はラベルの学習中のモデルによる事例とラベルの意味的類似性に応じて,事例–ラベル単位で重みを適応的に与える.具体的には,意味的類似性が低い正例への学習を抑制すると同時に, 意味的に類似した負例への学習の寄与を緩和することで潜在的な正例を保護する.人工ノイズ環境下の実験において,提案手法は既存手法と比較して高頻度ラベルの精度 (P@1) および頻度バイアスを除去した精度 (PSP@1) を改善した.