桑原教彰(京都工芸繊維大学 情報工学・人間科学系)
「わたしのことば」と「AIのことば」がすれ違いながらも響き合う――そんな対話のかたちに、私はヒューマンコンピュータインタラクション(HCI)の研究者としての関心を深めてきた。とりわけ高齢者支援の現場においては、語彙の正確さもさることながら、語順や語尾の自然さが相手の理解や安心感に大きな影響を与える。
ChatGPTとの深い関わりが始まったのは、ある授業の準備に際してTransformerの構造を調査していた折である。その応答の特徴に興味を抱き、構文と意味の処理について尋ねたところ、浅層では構文的情報が、深層になるにつれて文脈や意味の抽象度が高まるという応答を得た。この知見は、HCIの現場で私が感じていた「文の自然さ」と「意味の一貫性」が、ときに文脈にそぐわない形でずれるという問題の理解を深めてくれた。Tenneyら(2019)も層による機能の違いを分析し、同様の知見を報告している。しかし、意味と構文の層的な処理の両立は、現実の対話においては決して容易ではない。例えば私のフィールドである京都北部のように地域固有の言語表現が使われる場では、意味の正確さはもとより、語りのリズムや語尾、構文といった「言葉のかたち」が対話の質に深く関わる。生成モデルがこうしたニュアンスを適切に扱うには、意味と構文の分離と再統合を柔軟に制御する必要がある。
この問いを深めるなかで、私はChatGPTに対し、構文テンプレートをモデル内部で生成し、その構文に対応する語彙や表現をカテゴリ単位で外部から柔軟に補完する構成の可能性を問うようになった。従来のRetrieval-Augmented Generation(RAG)は事実性の補強には有効である一方、語調や語りのスタイル、リズムという文体的側面の制御には限界がある。Shusterら(2021)はRAGの構成ごとに知識性と会話性の偏りを示し、文体と内容のバランス制御が難しいことを指摘している。それに対して意味構造をモデル内部で保持しつつ、表現の細部をカテゴリレベルで外部から動的に選択するような仕組みは、HCIの観点からもより柔軟で制御可能性の高いアプローチに思われた。
そして振り返ればChatGPTとの対話は、「わたしのことば」と「AIのことば」が交差しながら進んだ、ひとつの思索の旅だった。問いを組み立て、考えを研ぎ澄ますその過程で、ChatGPTは私にとって確かに“伴走者”だった。これからも地域と技術が向き合う現場で、この対話が新たな“ことばのかたち”を導いてくれるだろう。
ところで近年、生成AIに自画像を描かせることがちょっとしたブームであり、私もChatGPTに「これまでの議論から想像できる私の似顔絵を描いて」と依頼した。その画には、構文木と京都北部の風景を背景に思索の表情を湛えた人物がいた。理論と現場をつなぎ、自然さと意味の一貫性を対話に宿すことの意義を静かに語っているようにも見えた。
その画に倣うようにこのエッセイもまた、ChatGPTと私との“対話”から生まれた、何やら深いことを語っているようで実はそれほどでもない、ひとつのことばの「かたち」かもしれない。
文献出典
- Tenney, I., Das, D., & Pavlick, E. (2019). BERT rediscovers the classical NLP pipeline. ACL.
- Shuster, K., et al. (2021). Retrieval augmentation reduces hallucination in conversation. EMNLP Findings.