美文网首页
2018-10-16的一些瞎想

2018-10-16的一些瞎想

作者: 我喜欢过洋娃娃 | 来源:发表于2018-10-16 21:36 被阅读0次

    看到 Learning to Control the Specificity in Neural Response Generation 这篇paper中的related works才有一点insights;

    Generation_based 为什么最近会火?

    1. 因为深度学习火了
    2. 因为RNN, LSTM在表征文本的效果空前提高了
    3. 因为 seq2seq 在 机器翻译上的表现也好了很多
    4. 检索式已经做的相对比较完备了(个人感觉)

    关于4,原来做文本匹配的时候也接触到很多很多检索的idea, 得益于大家热情高涨的刷高各种数据集,representation,interaction这些如果想要有大的突破,很难了,那么依赖的就是更完备的数据集能够提供更好的检索结果;

    open domain的generation可能还是一个不那么成熟的问题
    当如果有一家大企业开放了一种易于评测的数据集的时候,这才是繁荣的开始(也可能被很快刷高之后没落)

    再者说,NLU其实是一个结合各种感官(表情,神态,语气,动作)这些共同的理解,单从text这个维度我们能做的有多少?就算刷高一些,能不能有质的飞越?


    唉,有些悲观...
    有种看透而又无能为力的失落;
    既然早晚要去搬砖的,为何有这样为难的去做这些看似无意义的事情...

    感觉业界的发展早就不依赖于学术圈了,

    真正的英雄主义只有一种,看清生活的真想依然能够勇敢面对...
    且不说自己是不是大英雄,自己的insight可能还很naive呢
    看半年paper,如果还是有这种无力感,再来伤感吧...

    相关文章

      网友评论

          本文标题:2018-10-16的一些瞎想

          本文链接:https://www.haomeiwen.com/subject/rkskzftx.html