Kusumoto Laboratory: 數﨑, 柗本, 楠本, 安田, 伊藤, 代, LLMを用いたソースコード改変タスクにおけるFine-Tuningの実験的調査に向けて, 2025年12月.
  • リスト
  •  表 
  • LaTeX
  • BibTeX
Detail of a work
Tweet
數﨑, 柗本, 楠本, 安田, 伊藤, 代, "LLMを用いたソースコード改変タスクにおけるFine-Tuningの実験的調査に向けて," 電子情報通信学会技術研究報告, 125(288), pp. 001-006, 2025年12月.
ID 877
分類 研究会・全国大会等
タグ
表題 (title) LLMを用いたソースコード改変タスクにおけるFine-Tuningの実験的調査に向けて
表題 (英文)
著者名 (author) 數﨑 大樹,柗本 真佑,楠本 真二,安田 和矢,伊藤 信治,代 吉楠
英文著者名 (author)
編者名 (editor)
編者名 (英文)
キー (key)
書籍・会議録表題 (booktitle) 電子情報通信学会技術研究報告
書籍・会議録表題(英文)
巻数 (volume) 125
号数 (number) 288
ページ範囲 (pages) 001-006
組織名 (organization)
出版元 (publisher)
出版元 (英文)
出版社住所 (address)
刊行月 (month) 12
出版年 (year) 2025
採択率 (acceptance)
URL
付加情報 (note)
注釈 (annote)
内容梗概 (abstract) ソフトウェア開発に関する様々なタスクに対して,大規模言語モデル(LargeLanguageModel;LLM)を用いた支援や自動化が可能となってきた.Fine-Tuning(FT)とは事前学習済みモデルに対して,特定タスクに特化させる再学習手法である.FTの適用により,自然言語やソースコードに対する汎用的な知識を持つ事前学習済みモデルから,特定タスクに特化したモデルを獲得できる.FTの適用においては,再学習のため再学習データセットの構築が欠かせない.しかしながら,ソフトウェア開発タスクにおいてどのような再学習データセットをどの程度用意すべきかは明らかではない.本研究の長期的な目的は,LLMを用いたソフトウェア開発における高精度かつ高効率なFT適用方法の獲得である.本研究会原稿では,ソースコードの改変というタスクに着目し,簡易的な再学習データセットを用いてFT済みモデルと事前学習済みモデルの性能を実験的に比較する.
論文電子ファイル d-kazusk_202512_sigss.pdf (application/pdf) [一般閲覧可]
BiBTeXエントリ
@inproceedings{id877,
         title = {{LLM}を用いたソースコード改変タスクにおける{Fine-Tuning}の実験的調査に向けて},
        author = {數﨑 大樹 and 柗本 真佑 and 楠本 真二 and 安田 和矢 and 伊藤 信治 and 代 吉楠},
     booktitle = {電子情報通信学会技術研究報告},
        volume = {125},
        number = {288},
         pages = {001-006},
         month = {12},
          year = {2025},
}
  

Search

Tags

1 件の該当がありました. : このページのURL : HTML

Language: 英語 | 日本語 || ログイン |

This site is maintained by fenrir.
PMAN 3.2.10 build 20181029 - Paper MANagement system / (C) 2002-2016, Osamu Mizuno
Time to show this page: 0.038427 seconds.