返回顶部
返回首页
返回首页
今天是    | 政策法规 | 行业应用 |
home 您现在的位置: 首页 >机器人>技术中心 > 详细信息
人工智能可以接受培训,在社交媒体上发现网络欺凌,并在有害内容被删除之前对其进行有害内容的删除
2018年10月23日    阅读量:1003     新闻来源:中网信息    |  投稿

人工智能正在适应保护儿童免受网络欺凌和社交媒体的危害。 

研究人员培训了一种机器学习算法,用于检测社交媒体上的欺凌帖,并将其隐藏起来。 

AI检测到此数据集中的单词和短语通常与欺凌相关,并过滤掉超过三分之二的威胁,侮辱和性骚扰事件中国机械网okmao.com

比利时根特大学的吉尔斯·雅各布斯(Gilles Jacobs)建立了该计划,并负责过滤AskFM的现实生活帖子。 

一个由专业语言学家组成的团队经历了相同的数据集,并从近200,000个帖子中挑选了令人反感的帖子。

雅各布斯博士说,通过网络传播的欺凌行为往往更加微妙,包含更少的明显诅咒词或诽谤。 

他说,要实现100%的检测准确率真的很难,因为有很多不同的方法可以欺负某人。

在检测英语的细微差别时,例如讽刺或讽刺,该算法也很难理解。

例如,它有时无法区分无辜的评论和恶意评论之间的区别。 

研究人员表示,如果可以在更大的数据集上训练算法,即使是这个复杂的问题也可以避免。 

最近,对某些网站上允许的一些视频,图片,文章和评论感到愤怒,对网站上评论和内容的审核一直备受关注。

主要平台Instagram,Facebook,Twitter和YouTube一直面临着改善其筛选过程和保护用户,特别是年轻一代的压力。  

康奈尔大学的托马斯戴维森告诉“新科学家”杂志说,依靠人类主持人每天手动扫描数百万条评论是不可行的。 

“假设系统运行良好,它将允许版主将他们的注意力转移到最有问题的内容上。” 

该研究发表在Plos One期刊上。  


标签:行业资讯技术中心机器人
免责声明: 本文仅代表作者本人观点,与本网无关。本网对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。请读者仅作参考,并请自行承担全部责任。本网转载自其它媒体的信息,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。客服邮箱:service@cnso360.com | 客服QQ:23341571

全站地图

深圳网络警察报警平台 深圳网络警
察报警平台

公共信息安全网络监察 公共信息安
全网络监察

经营性网站备案信息 经营性网站
备案信息

中国互联网举报中心 中国互联网
举报中心

中国文明网传播文明 中国文明网
传播文明

深圳市市场监督管理局企业主体身份公示 工商网监
电子标识