2021-01-01から1年間の記事一覧

12本目!A Persona-Based Neural Conversation Model.

ではでは、今度はChatbotに詳細な人物像(ペルソナ)を組み込んだモデルについて、見ていきたいと思います! 重要なのは4からっ! Personalized Response Generation この研究では2つのpersona-basedモデルを導入している。Speaker ModelとSpeaker-Addressee …

11本目!Question retrieval using combined queries in community question answering

ではでは、恒例(?)のXioaIceで使われていた論文シリーズに参りたいと思います。 XioaIceでは生成ベース、検索ベース、ルールベースが使われていましたが、こいつはそのうちの検索ベースで使われていたやつ。 具体的にはPaired Dataに対して、(Question, Answ…

10本目! Question Generation for Question Answering

さてさてさーて。Question Generationにやってまいりました。 Question Generationといえば、傾聴とかの必須スキル。とういうか、Chatbotでの会話の継続のためにぜひとも学習したいモデルですね。 では、早速見ていきましょう。 ちなみに今回の論文はMicro S…

9本目!If I Hear You Correctly: Building and Evaluating Interview Chatbots with Active Listening Skills

ではでは、Active Listening(日本では傾聴って呼ばれているやつ)を搭載した Chatbot について、調べていきたいと思います。 この子は今まで見てきたような、Open-DomainのChatbotではなく、InterviewというTask-orientedなChatbotですです。 なんで、Active …

8本目!Design of Chatbot with 3D Avatar, Voice Interface, and Facial Expression

とりあえず、この論文は実際の実装ではなく、文献的を参考にした設計です。 まあ、作りたいやつの参考になりそうなので読んでみました。 構成としては Chatbot, Speech Recognition, Speech Sythesis, Avatar の設計と、その組み合わせの構成となっている。 …

7本目!The Desing and Implementation of XioIce, an Empathetic Social Chatbot

さーて、ようやくやってまいりました、Microsoft謹製のChatbotである、XiaoIceです! XiaoIceって聞いたことはないと思いますが、じつを言うとこの子は日本ではRinnaと呼ばれています。そうっ!あのRinnaに関しての論文ですっ! ということで、程々に気合を…

6本目!Neural Machine Translation of Rare Words with Subword Units

では、今回はいろんな論文に登場するBPEについて見ていきたいと思います! こいつはTokenzierとしてよく使うsentence pieceの元となった論文ですな。 ちなみにsentece pieceとbpeの違いは、sentence pieceはユニグラム言語モデルっていうやつを使って、subwo…

5本目!Towards a Human-like Open-Domain Chatbot

今回がかの巨人であるGoogleが開発した Chatbotに関する論文です。 その子の名前はMeena!というか、なんて読むの?メーナ?ミーナ? まあ、ミーナの方が可愛いのでミーナってことで。なんか、ミーナって聞いたことがある気がする。調べたら、進撃の登場人物…

4本目!BERT:Pre-training 0f Deep Bidirectional Transformers for Language Understanding.

ではでは、さーて、gpt-2で使われていた論文に行きたいと思います。 まず、こいつがどんな使われ方を確認しましょう! 参照元の論文のもう一方ではRTEにおいて、<Premise><SEP><Hypothesis>という入力をして、この文章がNeural, Contradiction, Entailmentのどれに当てはまるのかの識別</hypothesis></sep></premise>…

3本目!Attention Is All You Need.

ではでは、いよいよかの有名なAttention Is All You Need について見ていきたいと思います。 まあ、モデルの詳しい説明はググればいっぱいあるので、そっちに置いておいて、訳の分かりにくくなるところを調べていきたいと思います。 Model Architecture Tran…

2本目! REASONING ABOUT ENTAILMENT WITH NEURAL ATTENTION

前回のgpt-2の引用の論文であるImproving Language Understanding by Generative Pre-Trainingで使われていたこの論文。 まずは、どうこの論文がImproving Language Understanding by Generative Pre-Trainingで使われていたのかを復習すると..。 通常 input…

1本目! Language Models are Unsupervised Multitask Learners

ではでは、記念すべき1本目の論文はGPT-2についての論文です。 1. Model Transformerに基づいたモデル(というか、かの有名なAttention Is All You Need)によって作られている。 まあ、そうだろうけど。 実装に関しては Open AI の Improviding Language Unde…