位置:科技资讯 > 互联网 > 人民网三批算法推荐 这些平台如何平衡传受利益

人民网三批算法推荐 这些平台如何平衡传受利益

科技资讯  2017年10月9日 21:58  来源:新浪科技
摘要:传者有使命,受者有需求,平衡利益,解决矛盾,是永不过时的话题。人民网最近几天三批以今天头条为代表的算法推荐资讯服务,认为存在价值观缺失、制造信息茧房、竞争手段无底线三大问题。

  来源:《财经》杂志

  原标题:人民网三批算法推荐,今天头条等平台如何平衡传受利益?

  传者有使命,受者有需求,平衡利益,解决矛盾,是永不过时的话题。

人民网最近几天三批以今天头条为代表的算法推荐资讯服务,认为存在价值观缺失、制造信息茧房、竞争手段无底线三大问题。人民网最近几天三批以今天头条为代表的算法推荐资讯服务,认为存在价值观缺失、制造信息茧房、竞争手段无底线三大问题。

  从媒体角度,此问题并不新鲜。

  自从媒体诞生以来,就存在一个古老命题,读者需要什么?媒体应该为读者提供什么?当读者需要超出法律和伦理的范畴,媒体是否应受到一定的约束?

  人的需求难以量化固定

  从商业媒体的角度,读者需要什么,媒体就提供什么,似乎天经地义。但媒体作为具有一定公共属性的机构,还被赋予教化引导公众、塑造良好公众品味的期望。

  所以,即便是商业媒体,也与一般的商业机构有所不同,无形中受到更多的关注与约束。

  西方新闻史上,黄色新闻一度泛滥成灾,毫无底线地满足人们生理需求的做法,受到公众谴责,于是社会责任论产生,认为媒体应当对社会负有责任。

  在前互联网时代,媒体通过把关人,即编辑记者,由上而下地形成一种负责机制,通过人工过滤筛选,把媒体认为重要的信息传达给公众,告之真相、塑造公众认知。

  进入网络时代,传播方式与以往有很大不同,过去是媒体主导,现在变成用户主导,把关人消失。用户不再被动地接受媒体传达的信息,而是自己在网上寻找 感兴趣的,最初是通过门户网站,接着是搜索引擎,后来有社交朋友圈。由于网络空间足够大,因此人们的需要可以从多方面得到满足。

  关于人的需求,学界多年来做了多种研究,这是社会心理学的一个古老课题,举一个大家熟知的理论,就是马斯洛的需求层次理论,他将人类需求从低到高分 为五种:生理需求、安全需求、社交需求、尊重需求和自我实现需求。人类的需求是多方面的,不是一成不变的,需求是一个动态变化的过程。

  而且人们的需求既有潜在的,也有公开显露的,有今日的需求,也有未来的需求,有这方面的需求,也有那方面的需求,不是绝对量化和固定的。

  机器算法,号称可以做到“千人千面”,提供用户最想看的内容。

  但当算法不掌握一个人的基本信息,如性别、年龄、教育程度、工作性质、兴趣爱好等情况时,一般默认的人类需求是最低需要,即生理需求,随着用户行为留下的数字痕迹越多,机器记录痕迹,通过算法调整推送信息。

  算法是机器运算的结果,看上去精准,但机器记录的信息,是一个人在某个时间看到某条信息,是人们在那一瞬间的需要,并不代表全部需要,也不代表以后需要,或者能够引起他潜在的需要。

  此外,人们的很多需要,自己可能意识不到,需要引发。例如一个进城务工的单身青年,可能会对性的内容感兴趣,但这并不代表他对其他信息不感兴趣,例如城市生活、工作机会、学习机会、家乡变化等。

  从此角度看,依靠算法推荐的信息平台虽然是为满足用户需要,但如果单纯地使用算法推荐,把个人需求简单化、个别化、瞬间化,一霎那看到的一条信息变成全部的需要,而且不断重复叠加,最终结果可能变成愚蠢的算法。

  平衡传受双方需求是永恒话题

  人类是世界上最丰富的物种,每个人都有灵性、有意识、有感情,而且这些都在不断地变化,这是机器无论如何也不能识别的。在人工智能甚嚣尘上的时代,不能迷信各种机器算法,人的问题,最终还要由人自己解决。

  人类传播的历史上,传者与受者始终是一对互动的对立统一矛盾体。受者不是被动、简单、轻易地就会被影响。有一种观点认为,算法推荐会导致用户走向极端,这是没有科学依据的,只是一种主观看法。

  事实上,算法推荐通常是根据关键词和题材品类推送,并不是根据观点推送,算法对观点是正面还是反面,是支持还是反对不容易做判断,因此推送给用户的信息可以包含多方面的观点,既可以看到这种意见,也可能看到另一种意见,这样不但不会造成极化现象,反而可能淡化极化现象。

  网络为人类提供极大的信息传播空间,用户可以选择的渠道十分之多,“信息茧房”对于擅用网络的人来说,就是一个伪命题,对于不擅用网络的人,是一个真命题,对于这类人群来说,提高他们的媒介素养是一项社会性任务。

  人民网发问后,今天头条迅速关闭上百个低俗的自媒体账号,说明以今天头条所掌握的技术,这些账号是可以被发现并做出相应处理的。

  问题是,这部分账号的确满足一部分人的需求,而有需求的人数量相当大,低俗内容游走于法律和道德伦理的边缘,而道德伦理又没有强制性的约束力,风声紧了,收敛一下;舆论宽松了,又出现。

  传播是传者和受者的互动,互动按照对立统一规律来说,就构成一对矛盾,传者有传者的使命,受者有受者的需求,两者怎样统一起来,就是传播运动的过程,而这一对矛盾也是传播主要要解决的矛盾。如何平衡双方利益,是永远不会过时的话题。

  (作者为南京大学新闻传播学院教授,编辑:王敬恺)

  背景

  算法推荐争议

  王敬恺/文

  算法推荐是在对海量用户行为的数据分析与挖掘基础上,利用计算机通过数学算法,推测出用户可能喜欢的东西。

  目前,算法推荐大致可分为三类:

  基于内容。理论依据主要来自于信息检索和信息过滤,根据用户过去的浏览记录向用户推荐其没有接触过的推荐项。

  基于知识。某种程度上可以看成是一种推理技术,它不是建立在用户需要和偏好基础上推荐的,可以是用户已经规范化的查询,也可以是一个更详细的用户需要的表示。

  基于协同过滤。它是基于这样的假设:“跟你喜好相似的人喜欢的东西,你也很有可能喜欢”。所以基于用户的协同过滤主要的任务就是找出用户的最近“邻居”,从而根据最近“邻居”的喜好做出未知项的评分预测。

  算法内容平台的推荐个性化主要表现在:一是针对审核通过的文章,智能推荐引擎会根据内容质量、内容特征、首发情况、互动情况、媒体的历史表现、媒体订阅情况,为文章找到感兴趣的读者并推荐;二是针对读者,根据其阅读历史、地理信息、搜索关键词、阅读习惯等进行推荐。

  以今天头条、一点资讯为代表的智能新闻客户端,凭借强大的算法、先进的数据抓取技术,能够精准分析并解读用户的阅读习惯和兴趣,从而为用户提供量身定制的新闻产品,满足个性化需求。

  但随之带来的色情、谣言、夸张广告等低俗内容泛滥,这还只是算法推荐新闻平台在内容分发方面所面临的难题之一。

  自9月18日起,人民网连续三天推出三篇评论文章批评以今天头条为代表的新闻算法推荐,分别为《不能让算法决定内容》、《别被算法困在“信息茧 房”》、《警惕算法走向创新的反面》。人民网在批评算法推荐的文章中,形象举例称:有位网友无意点击了一条关于花圈的消息,结果今天头条就连续推送丧葬用 品信息,令人不堪其扰。

  归纳起来,公众对算法推荐新闻争议主要集中在三点:

  首先,技术、代码、算法替代了传统内容分发过程中专门把关内容的编辑。单一的标准不但容易忽视优质内容更为丰富的面向和维度,也增加了把关内容产品的难度和成本。

  其次,对于拥有强大算法和技术支撑的信息平台,一心“取悦”用户远远不够,更要自觉执行有关政策法规,不能有侥幸心理,任凭暴力、色情等不良信息泛滥。

  第三,智能信息平台带来的最大问题,不但是侵权,而是可能走向创新的反面,甚至破坏创新的原动力。

  9月21日下午,今天头条正式回应,称理解媒体的忧虑,将正视机器学习技术目前整体发展的不足,勉力改进。此前,今天头条一直表示重视提高分发效 率、满足用户的信息需求。创始人张一鸣接受《财经》记者采访时也曾说,企业和媒体的区别在于媒体是要有价值观的,它要教育人、输出主张,而头条不提倡。因 为它不是媒体,更关注信息的吞吐量和信息的多元。