美文网首页收藏
内容安全之反垃圾智能内容审核产品的构建策略与流程

内容安全之反垃圾智能内容审核产品的构建策略与流程

作者: 柬埔寨校草 | 来源:发表于2020-07-01 11:50 被阅读0次

    你一定想不到最不起眼的内容安全可能会影响一个行业或平台的生存和发展,近日,2020年6月23日国家网信办指导属地网信办依法约谈处置虎牙、斗鱼等10家网络直播平台(其实已经不是第一次通告要求整改了),消息一出直登微博热搜,成为大家纷纷议论的焦点。

    被整改原因,公告也都一一阐述清楚:

    “结合群众举报及核查情况表明,国内31家主要网络直播平台普遍存在内容生态不良现象,不同程度地存在内容低俗庸俗问题。其中,秀场类直播乱象频发,一些女主播衣着暴露,一些男主播言行粗俗恶俗,低俗热舞、恶搞、谩骂等现象屡禁不绝聊天类直播内容无营养无价值,甚至传播不良价值观;留言互动、弹幕和用户账号注册疏于管理,违法违规信息层出不穷。一些平台企业经营态度不端正,自身利益至上,有的借助免费“网课”推广“网游”,有的利用色情低俗内容诱导用户点击浏览并充值打赏,有的利用“抽奖”“竞猜”“返利”等方式涉嫌组织网络赌博。诸多直播乱象严重背离社会主义核心价值观,危害青少年健康成长,败坏社会风气,社会各界呼吁要严加整治。

    截图来源: 中国网信网

    其中直播行业两大巨头虎牙直播与斗鱼直播手机APP平台banner位置“认真整改中”几字格外引人入目

    虎牙直播APP首页 斗鱼直播APP首页

    其实早在几天,社交软件微博在618前夕也被要求整改,并停更微博热搜和热门话题榜一周

    “6月10日,国家互联网信息办公室指导北京市互联网信息办公室,约谈新浪微博负责人,针对微博在蒋某舆论事件中干扰网上传播秩序,以及传播违法违规信息等问题,责令其立即整改,暂停更新微博热搜榜一周,时间自6月10日15时至6月17日15时,暂停更新热门话题榜一周,时间自6月10日15时至6月17日15时,严肃处理相关责任人,同时,要求北京市互联网信息办公室对新浪微博依法从严予以罚款的行政处罚。"

    ...类似因为内容安全问题被要求整改的案例不胜枚举,就不一一说明了,同时国家网信办也针对网络内容安全问题出台最新的《办法》加大对互联网信息的审查和传播安全。内容安全逐渐成为一个平台稳定发展的前提条件。

    “本办法自2020年6月1日起实施,国家互联网信息办公室、国家发展和改革委员会、工业和信息化部、公安部、国家安全部、财政部、商务部、中国人民银行、国家市场监督管理总局、国家广播电视总局、国家保密局、国家密码管理局联合制定了《网络安全审查办法》“

    本文以人工智能为基础浅谈反垃圾中智能审核产品的构建及流程

    反垃圾:顾名思义,就是对抗垃圾,在互联网行业中更多的是指一个过滤和识别的功能,对用户产生的内容进行过滤,将一些有害无益的信息筛选出去,典型的例子便是垃圾邮件的识别;社交网站中低俗、色情、政治反动类等等的内容过滤。

    在最初的互联网内容安全中,负责这块的主要是通过人工审核筛选的方式去对抗垃圾内容,但是随着现在人工智能的快速发展,智能审核会逐渐替代人工,通过智能训练机器人来承担审核和过滤垃圾内容的角色,无论从成本和效率方面考虑这都一定是未来必然的发展趋势。本文主要介绍的便是智能审核反垃圾。

    以目前的内容安全审核业务来看,最成熟的还是审核策略(简单的关键词匹配、规则匹配、泛化匹配)+智能审核+人工审核等业务配合。目前来看这是一种最科学效果最好最高效的内容审核方式。

    目前审核业务普遍的产品逻辑及构成(使用场景不同前后顺序略有不同)

    在这里就不详细梳理关键词、规则匹配功能,此功能根据使用场景不用相关的配置策略也不用,但是大概的功能点基本都一样,通过添加关键词和规则进行相关的精准匹配和模糊匹配,优缺点大家找找相关的资料便都能了解一二。

    这里详细介绍一下智能审核产品的基本构建流程

    前文也提到过,目前的智能审核产品主要是以人工智能为基础并结合大数据来搭建而成,简单的介绍一下目前人工智能主要的应用领域,本文介绍的产品主要依托于自然语言处理(NLP)领域的应用

    人工智能主要应用领域(划分场景不同,领域结构不同)

    反垃圾智能审核产品在实现方法上,其核心思想是在载体中提取数据后进行特征匹配得出分类结果的过程。例如文本反垃圾,图片反垃圾,视频反垃圾等等,文本、图片、视频都是载体。以文本为例,当人眼看到文本映射到大脑通过语言处理(语义分析等)后获取到的信息,就完成了一次数据提取与特征匹配。同样的,反垃圾利用相同的原理提取有害信息的特征后进行机器学习,进而达到主动识别的效果。

    如何让机器像人类一样学习到相关的知识?

    在这里可以将机器学习类比成人类学习成长的过程:

    孩子的聪明程度=机器使用时的算法好坏,算法用的好,那孩子相比其他孩子就早早的赢在起跑线了,但是笨孩子就比别人差吗?你可以说他比别人笨但是你肯定不能说他一定比别人差,因为通过后天的学习也能实现”笨鸟先飞“,所以这里的后天学习的质量和努力程度(训练数据集的好坏与数量)很重要,所以这里就要牵扯一个问题了,决定一个模型的好坏到底是算法重要还是数据重要?

    产品搭建及流程

    问题分析:

    根据使用场景及应用不同所涉及的反垃圾类型也不同,但是目前大多数平台所接触到的垃圾信息基本上可以概括为以下几个类别:

    垃圾广告:各类商品广告、诈骗广告等

    色情内容:色情词汇、色情服务及低俗信息等

    暴恐、政治敏感词: 暴恐涉政、违禁品等

    辱骂内容:各类辱骂性词汇及文本内容

    涉政内容:内容涉及到政治政策类反动言论,抨击社会传播国家谣言及负面内容

    竟品信息及其他涉及到自身平台的负面信息等、

    目前很多市面上的内容审核产品都会细化垂类,例如色情分类为疑似色情和色情或者严重色情等,使用场景不分类策略不同,主要是减少产品对正常用户的正常内容误杀。

    简单的垃圾信息,可以通过设置规则进行关键词过滤和屏蔽,正则表达则可以发挥很大作用。但是发布者为了逃避拦截,通常都会对垃圾信息进行改造和伪装,比如拼音替换,同义词替换,象形字替换,嵌入表情字符,用表情代替字符,甚至是将文字顺序打乱。对于复杂的信息,其表达形式广泛、没有规律,仅仅通过规则过滤达不到效果,这时智能审核产品便起到了决定性作用。

    产品模型的基本构建及流程:

    主要的相关流程:

    模型训练数据集

    人工智能简单点就是先人工再智能,所有的人工智能产品都是先依附于人工,这里的人工主要就是数据处理上,简单点的意思就是给机器准备所需要的学习资料,通过这些学习资料让机器学习到相关的知识。

    而关于数据其实可分为两种类型:被标记过的数据和未被标记过的数据。什么是标记呢?意同“打标签”,当你看到一只猫咪,你知道它是属于动物。那么你就可以为它贴上一个动物的标签。再用“有标签的数据”去训练模型,让模型学习这些特征,这里就有了“监督学习”。

    不断地用标注后的数据去训练模型,让模型去学习,并不断调整模型参数,得到指标数值更高的模型。使用效果也会更好,所以这里的数据质量一定要好好把关,关系到一个模型的好坏,在我目前接触的模型中效果差的原因大概率就是训练数据质量太差或者数量太少。

    模型训练:

    将训练数据准备完毕后评估需求,甄选出最优最适合的算法相结合去训练模型,让模型学习到这些特征,一个简单的模型雏形就这样诞生了

    模型测试:

    模型数据基本上分为三类

    训练集:用来训练模型,作用是用来拟合模型,通过设置分类器的参数,训练分类模型。后续结合验证集作用时,会选出同一参数的不同取值,拟合出多个分类器。所以说,训练集是用来训练模型或确定模型参数的

    测试集:通过训练集和验证集得出最优模型后,使用测试集进行模型预测,用来衡量该最优模型的性能和分类能力。即可以把测试集当做从来不存在的数据集,当已经确定模型参数后,使用测试集进行模型性能评价。

    验证集:作用是当通过训练集训练出多个模型后,为了能找出效果最佳的模型,使用各个模型对验证集数据进行预测,并记录模型准确率。

    选出效果最佳的模型所对应的参数,即用来调整模型参数,如svn中的参数c和核函数等。在交叉验证过程中也需要设置验证集,如k-折交叉验证(k-fold crossValidation)。

    一般情况下,训练集、测试集、验证集三者是无交集的,为了验证模型的真实效果和泛化能力采用的测试集和验证集一定是训练集没有出现过的,就像我们参加中考和高考很少会遇到与之前一模一样的题一样,这样模型的测试效果才是最真实的效果

    垃圾信息拦截是一个常见的文本二分类任务,是自然语言处理领域的一个基本任务,目的是推断出给定的文本的标签。二分类问题常见的评价指标有准确率(accuracy),精准率(precision),召回率(recall),F1-score等。大多数下用到最多的评测指标还是精准率P和召回率R。其中:

    TP:样本为正,预测结果为正;

    FP:样本为负,预测结果为正;

    TN:样本为负,预测结果为负;

    FN:样本为正,预测结果为负。

    准确率、精准率和召回率的计算公式如下:

    准确率(accuracy): (TP + TN )/( TP + FP + TN + FN)

    精准率(precision):TP / (TP + FP),正确预测为正占全部预测为正的比例

    召回率(recall): TP / (TP + FN),正确预测为正占全部正样本的比例

    F-measure:precision和recall调和均值的2倍。

    观察上面的公式我们发现,精准率(precision)和召回率(recall)的分子都是预测正确的正类个数(即TP),区别在于分母。精准率的分母为预测为正的样本数,召回率的分母为原来样本中所有的正样本数。当然正常情况下是精准率和召回率越高模型效果越好,但有时精准率和召回率两者会相互制约,不会同时都很高,这就要求我们做好评估,世上没有十全十美的东西,模型产品也一样,根据使用场景来评估此类指标。

    相关的算法:

    目前在自然语言处理领域,基本上占主流的算法便是使用预训练模型,通过无监督大语料(在 亿级别的数据上预训练),目的是让模型学习到基本的语言特性,随后在不同使用场景通过相关的小语料学习(使用社交、财经领域或其他等等的模型训练数据)并对模型参数做优化微调。达到最优的使用效果。

    一个简单的例子,人上学的过程:模型通过大大语料学习基础知识(小学初中高中),再通过小语料分专业(大学)精细化学习(不使用场景语料也不同)学习,通过学习后成为一个能为社会做贡献的人

    产品的线上使用:

    产品上线后并不是就结束了,一定还存在模型没有识别或误判的情况,这时候就需要我们根据线上使用情况去继续优化和产品迭代直到完全满足使用需求,最后的目的一定是节约人力提高工作速率。

    相关文章

      网友评论

        本文标题:内容安全之反垃圾智能内容审核产品的构建策略与流程

        本文链接:https://www.haomeiwen.com/subject/dzscqktx.html