欢迎来到优亿在线
国内最专业的科技资讯提供商

需要人工帮助:为什么人工智能在内容节制方面很糟糕

Why AI Is Terrible at Content Moderation

每天,Facebook的算法都要处理一项艰巨的任务:找到并删除数百万条包含垃圾邮件、仇恨言论、裸露、暴力和恐怖主义宣传的帖子。尽管该公司能够接触到一些世界上最令人垂涎的人才和技术,但它仍在努力尽快找到并移除有毒内容。

今年3月,新西兰一名枪手在Facebook上的两座清真寺残忍杀害51人。但这家社交媒体巨头的算法未能检测出这段可怕的视频。Facebook花了一个小时才把这段视频撤下,即便如此,该公司也很难处理转发这段视频的用户。

Facebook最近就其人工智能算法成功发现有问题内容的频率进行了讨论。尽管报告显示,该公司多年来在自动化内容审核方面取得了巨大进展,但它也突显出当代人工智能经常无法理解上下文。

没有足够的数据

处于人工智能前沿的人工神经网络和深度学习技术,帮助实现了以前计算机软件无法实现的任务自动化。这些任务包括语音识别、图像分类和自然语言处理(NLP)。

在许多情况下,神经网络的精度超过了人类。例如,人工智能可以。但是。也就是说,它需要在大量的例子上进行“训练”,然后才能最佳地运行。例如,如果您想创建一个检测成人内容的神经网络,您必须首先向它显示数百万个带注释的示例。如果没有高质量的训练数据,神经网络就会犯愚蠢的错误。

去年,Tumblr宣布将禁止其网站上的成人内容,并使用机器学习标记含有NSFW图像的帖子。但其人工智能模型的过早部署,最终以巨怪袜子、LED牛仔裤和乔•拜登(Joe Biden)的照片告终。

在许多情况下,例如暴力内容,没有足够的例子来训练一个可靠的人工智能模型。脸书首席人工智能科学家扬·勒昆说:“值得庆幸的是,我们并没有太多真人射杀他人的例子。”

神经网络也缺乏情景感知能力。他们只在新内容和展示的例子之间进行统计比较。即使对许多例子进行训练,当面对与训练数据不同的边缘情况时,神经网络的行为也是不规则的。

Facebook的人工智能未能检测到这段新西兰大屠杀视频,因为它是从第一人称视角播放的,与过去上传的任何视频都不相似。观看视频的人会立即意识到其中的暴力内容。但是Facebook的神经网络只提取和比较像素模式。

背景和目的

Facebook本可以将其人工智能训练到电影中的大量暴力场景,以增强其调节能力。但这只会让人工智能感到困惑,因为它无法分辨电影和真实暴力之间的区别,而且会把两者都屏蔽掉。

这是因为神经网络面临的最紧迫的问题之一是它们无法理解上下文和意图。Facebook首席执行官马克·扎克伯格在去年与分析师的一次电话会议上用外行人的语言解释了这一点,他说,“制造一个能够检测乳头的人工智能系统,要比确定什么是语言仇恨言论容易得多。”

一个训练有素的神经网络可以很好地检测裸体。根据Facebook的数据,它的人工智能可以检测出96%的准确率。但是,要区分安全的裸体(比如母乳喂养或文艺复兴时期的艺术)和被禁的内容(比如性行为)之间的区别还很困难。

2016年,挪威总理的Facebook页面上出现了一名9岁的裸体女孩在凝固汽油弹袭击后逃跑的照片。该公司的算法将这幅标志性图片标记为儿童色情;随后,脸书向总理道歉,并恢复了这条微博。

2017年,YouTube承认,记者和研究人员发布的这些视频是极端主义内容,因为它无法区分宣扬极端主义的视频和相关报道。

事情变得更加复杂。深度学习算法能够有效地捕获和评估时间一致性。这就是为什么他们非常擅长识别语音、将音频转换为文本和检测垃圾邮件。但当他们的任务是检测仇恨言论和骚扰时,他们就崩溃了。

这些任务需要人工智能来理解人类语言的细微差别,这是一个很难用1和0来解决的问题。在不同的语言中,仇恨言论可能会有很大的不同,关于什么是坏的行为也有很大的不同。

根据Facebook的报告,仇恨言论和骚扰是其人工智能表现不佳的两个领域。去年,扎克伯格表示,公司将用5到10年的时间开发能够检测仇恨言论的人工智能。但是,如果人工智能的历史能够提供一些启示的话,那可能需要更长的时间。

适度仍然需要人类

随着Facebook和其他社交媒体网络致力于它们的人工智能算法,人类仍将是在线内容审核的重要组成部分。Facebook目前雇佣的审查用户生成内容的员工超过了全世界。

这些人的工资通常很低,每天必须处理令人不安的图片和内容,他们会查看人工智能算法标记的帖子,以恢复那些被错误屏蔽的帖子,并删除其他违反网站政策的帖子。他们的工作将有助于进一步训练人工智能,提高其准确性。但目前还没有迹象表明,人工智能是否或何时能够独立控制每天上传到Facebook和其他社交网络的数十亿条帖子。

目前,内容适度仍将是一场猫捉老鼠的游戏,需要大量的人力。在接受Facebook首席技术官迈克•施罗普弗(Mike Schroepfer)采访时承认,仅靠人工智能无法解决该公司有毒内容的问题。

“我确实认为这是一个终局,”施罗普费尔说。但“我不认为这是‘一切都解决了’,我们都收拾行李回家。”

历史上的今天
七月
11
赞(0)
未经允许不得转载:优亿在线 » 需要人工帮助:为什么人工智能在内容节制方面很糟糕
分享到: 更多 (0)
标签:

相关推荐

评论 抢沙发

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址
  • Q Q(选填)

优亿在线科技网 更权威 更方便

优亿在线联系我们