最近抄代码,试做一套推荐系统,发现同一个推荐列表中大部分内容是相同的,明显有违“发现”新信息的道理——哪有只看一类信息的人呢?
测试推荐页面成熟的推荐产品当然不会这么直接的出现全都推荐同一类内容,但不可避免的,它会按着你的兴趣、你的阅读点赞踩历史,推荐你喜欢的内容给你,为的就是让你更多的使用——这反过来会强化你的兴趣,最终让你越来越认可自已的观点,你也就离互联网原本的多元化越来越远。
互联网消除了信息不对称,但确带来了更多认知鸿沟。人天然的就对不同的观点持抵触怀疑态度,本来很多人寻找信息就是为了佐证自己已有的观点,而机器算法对内容的分类推荐,又大大降低了原本可以看到不同观点的机会。
这是非常值得警惕的一件事情:请留意,你很可能只能看到某些特定的话题、观点,很难跳出这个信息圈,这种效应自我强化,最终可能就是一叶障目。
而现在,又有哪家内容平台不使用推荐算法呢?特别是头部的几家,还依此做大、做强、做的很强。
第一次让我意识到这是个问题是在奇葩说,那期李开复去讲人工智能。艾力即提出此问题:新闻中人工智能的应用让世界越来越分裂,如何应对?
李开复给出的方案是:通用的共识应该由人工编辑处理,其他部分可以交给机器。(某些原因,现在的大平台应该都是这样吧)
新闻内容在这方面尤其明显(最直接的影响价值观,影响对外部世界的认知),其他垂直领域,譬如音乐\电影推荐,都不会出现这种限制人视野的问题。类似母婴知识百科这种客观科学知识,也不存在影响认知的问题。
对个人,应跳出舒适区,看一看对抗性的观点,避免陷入‘看到大家都这么想我就放心了’的状态 (实锤?咱就不较劲了),试着了解对方的出发点是什么,为什么会想的和你不一样?否则,真的就是丧失独立思考的能力,被洗了……
不同的世界观、不同的立场,最终有不同的观点是正常的,如果不给个机会去相互了解,在自我强化的路上越走越远,冲突将不可避免。了解、包容不同是最好的方案。
(我这是要在世界中心呼唤爱的节奏……)
网友评论