看到 Learning to Control the Specificity in Neural Response Generation 这篇paper中的related works才有一点insights;
Generation_based 为什么最近会火?
- 因为深度学习火了
- 因为RNN, LSTM在表征文本的效果空前提高了
- 因为 seq2seq 在 机器翻译上的表现也好了很多
- 检索式已经做的相对比较完备了(个人感觉)
关于4,原来做文本匹配的时候也接触到很多很多检索的idea, 得益于大家热情高涨的刷高各种数据集,representation,interaction这些如果想要有大的突破,很难了,那么依赖的就是更完备的数据集能够提供更好的检索结果;
open domain的generation可能还是一个不那么成熟的问题
当如果有一家大企业开放了一种易于评测的数据集的时候,这才是繁荣的开始(也可能被很快刷高之后没落)
再者说,NLU其实是一个结合各种感官(表情,神态,语气,动作)这些共同的理解,单从text这个维度我们能做的有多少?就算刷高一些,能不能有质的飞越?
唉,有些悲观...
有种看透而又无能为力的失落;
既然早晚要去搬砖的,为何有这样为难的去做这些看似无意义的事情...
感觉业界的发展早就不依赖于学术圈了,
真正的英雄主义只有一种,看清生活的真想依然能够勇敢面对...
且不说自己是不是大英雄,自己的insight可能还很naive呢
看半年paper,如果还是有这种无力感,再来伤感吧...
网友评论