推荐算法有伦理责任吗?

作者: kokdemo | 来源:发表于2018-03-16 10:37 被阅读48次

    今天这个选题似乎相当标题党。

    在报纸作为主要信息传播模式的时代,信息传播是中心化的,大众能看到什么信息,取决于媒体的编辑。而在智能手机普及的今天,大众获得信息的来源已经从报纸,电视转移到了手机上。

    在移动互联网的时代中,大众获得信息的方式,主要是通过新闻资讯类的应用软件。

    目前市场上一些知名的应用软件,比如今日头条,一点咨询,UC等,出于用户习惯,大部分用户也只会装一个此类软件。

    2017年12月用户安装新闻类应用数量分布

    为了提升用户粘性,打开频次以及每天的使用时长,实际上所有的应用软件都会使用个性化算法来为用户推荐资讯。

    以目前占有率最好的今日头条来说,平均的使用时长已经达到了1.5小时,加上头条系的其他应用,基本占用了一个人的几乎全部休闲时间。

    当用户开始使用的时候,应用软件会采集用户的各种信息,比如点击的新闻类型,浏览的时长,甚至是在某一个广告图片上停留的时间等各种数据。

    通过这些信息,就能知道用户喜欢什么信息,也就能更好的给用户推荐用户“感兴趣”的信息。

    那么问题就来了:

    “给用户推荐感兴趣的信息符合伦理吗?”
    

    如果用户将自己的时间和阅读渠道都全部交给了一个应用,那么这个应用应当负责一些信息传播的伦理责任吗?

    向坏的方向想,如果用户持续的在阅读一些导向性很强的文章,比如“读书无用论”,“各种偏方秘方”,此时的推荐算法实际上会给用户推荐更多这样的内容,从而将用户代入一个更偏执的信息环境中。

    普通的阅读与推荐算法下的信息获取

    这是很可怕的,用户会认为自己身边的人都和自己一样,认为“读书无用”,甚至会产生一些反社会的想法。

    为了解决这个问题,不少应用程序也给出了自己的一些解决方案,比如调整推荐的评估指标,将新鲜度加入到推荐的目标中。

    朴素评估目标和加入新鲜度的评估目标

    这样可以有效的增加用户的关注点,变相的降低了信息环境的偏执程度。

    当然更有效的措施,就是过滤与审核(毕竟有知名算法大厂招了2000个人员来审核内容的传奇事迹在)。

    过滤审核是信息传播中遇到的老问题了,一旦通过过滤,可以极大程度的减少一些负面信息(这些信息是一些有社会共识的负面信息,比如邪教之类的)。

    但谁来控制这个尺度,谁来控制那些信息应当被审核呢?亦或者说,是否有人能通过推荐算法决定大众应当获取到什么信息?


    抛弃掉上面这个不能问的问题,回到推荐算法的本质上。

    我们还是在已有信息的基础上,找出了用户“可能”喜欢的信息。这个过程无论如何都会造成信息量的大量衰减,在这个过程中,用户获得信息量的范围注定是会压缩的。

    这样的技术在一些其他的领域,比如知识图谱,信息检索方面可以显著的提高人获得有效信息的速度。

    但在新闻资讯这个方向,这样的技术一定会遇到这个信息传播中的伦理问题。

    毕竟推荐算法并不能像图像算法中的一些插帧或者图像补全技术,来“制造”一些新的信息出来。

    毕竟我们不能阅读一些“机器制造”新闻资讯出来,对吧?


    不,没准我们只是没有感知出来而已。

    相关文章

      网友评论

        本文标题:推荐算法有伦理责任吗?

        本文链接:https://www.haomeiwen.com/subject/sudkqftx.html