比较谷歌、微软、亚马逊等公司的鉴定API能力,哪家强呢?.doc

比较谷歌、微软、亚马逊等公司的鉴定API能力,哪家强呢?.doc

ID:28104529

大小:493.00 KB

页数:9页

时间:2018-12-08

比较谷歌、微软、亚马逊等公司的鉴定API能力,哪家强呢?.doc_第1页
比较谷歌、微软、亚马逊等公司的鉴定API能力,哪家强呢?.doc_第2页
比较谷歌、微软、亚马逊等公司的鉴定API能力,哪家强呢?.doc_第3页
比较谷歌、微软、亚马逊等公司的鉴定API能力,哪家强呢?.doc_第4页
比较谷歌、微软、亚马逊等公司的鉴定API能力,哪家强呢?.doc_第5页
资源描述:

《比较谷歌、微软、亚马逊等公司的鉴定API能力,哪家强呢?.doc》由会员上传分享,免费在线阅读,更多相关内容在学术论文-天天文库

1、比较谷歌、微软、亚马逊等公司的鉴定API能力,哪家强呢?  如今,网络中每天会产生海量的图像文件,而对于这些图片进行安全性鉴定是非常有必要的。很多公司都会使用图像鉴定API对裸露或违法照片进行自动过滤和修改。本文便实现并比较了谷歌、微软、亚马逊等公司的鉴定API能力。  扫黄打非,刻不容缓!  在智能手机时代,手机上装有一个、两个甚至更多的摄像头,图像(和视频)已经成为用户与社交媒体互动的最常见方式。  几乎所有用户生成的内容,比如Yelp或TripAdvisor上的评论、Instagram和Facebook上的帖子、WhatsApp上的转发等等,所有内容的图片数量都在

2、不断增加。最近一项2017年的数据显示,仅Facebook每天就会上传大约3.5亿张图片。这个数量是非常庞大的。  如果你的网站或者APP允许用户生成内容(UGC),例如评论、上传可能带图片的帖子等等。但目前很现实的一个问题是,一个troll可以将带有色情或者可怕的照片在你的网站上公开显示,必定会带来许多用户的谴责,甚至可能会承担相应的法律责任。  扫黄打非—手段是关键  公司处理这一类问题常见的方式是审核,在审核过程中,UGC的每个细节内容都要通过人工操作,然后才能在网站或应用中展示出来。许多公司雇用了数十名工作人员,他们日复一日地过滤这些UGC。然后公司聘用这样的团

3、队,实际上不仅花费大量的金钱,而且效率也是很低的。  在过去的几年里,科技公司通过机器学习和使用ML算法来检测“有害”的内容,并自动调节UGC来应对这种威胁。最后机器无法自动分类或判别的内容,将交于员工进行人工操作。这就大幅度提高了效率。  开发、构建上述ML解决方案是一件非常困难的任务,所以像谷歌、微软这样的大型技术公司或Clarifai这样的小公司都会提供api来帮助用户完成这项工作。由于大多数这些API提供了类似的功能,我们希望相互测试这些API的有效性,特别是用于检测图像中的成人或色情内容。我们比较了AWSrekognition、Microsoftmoderat

4、ionservices、Googlevision和Clarifai的鉴黄API的性能。  明确任务—迈向成功的关键  将用户上传的“有害”图片标记为含有成人或色情内容,以便仅批准安全图像;  裸照等图片会被自动删除;  没有明确分类的图片会被发送给人工评估。  数据集介绍  我们使用了YACVID数据集的180幅图像,其中90张图像人工标记为非裸照,90张图像为裸照。我们用这4个API分别去测试这180张图像,并记录它们的分类的情况。    数据集中的一个示例数据项    数据集中安全的示例图像  实验结果一览  在测试这些API时,主要关注以下这些值:  真阳性(Tr

5、uePositive,TP):给定一个安全照片,API鉴定结果也是安全的;  假阳性(FalsePositive,FP):给定一个色情照片,API鉴定结果是安全的;  假阴性(FalseNegative,FN):给定一个安全照片,API鉴定结果是色情的;  真阴性(TrueNegative,TN):给定一个色情照片,API鉴定结果也是色情的;  理想情况下,人们肯定希望100%TP率和0%FP率。无论FP的值是多少,都是有害的,因为这有可能会在你的应用或网站上展现一些色情的图像。而FN的值若是过高,则说明这个系统是无效的,便会导致一个企业投入更多的人力资源。  实验结果

6、如下表所示:      星标的表示集成使用API  最好的独立API来自谷歌,精度为99%,召回率为94%。从表中可以看到,大部分API实验结果都非常良好,数值都达到了90以上。但是考虑到问题的实际背景情况,即使准确率如此之高,但对于许多情况也并非是万无一失的。  我们还试图结合使用两个或多个API来寻找解决问题的最佳方案。在我们的数据集中,似乎将Google和AWSAPI结合起来可以提供最佳性能。即便如此,仍有10%的安全图片需要人工验证才能共同构建出一个万无一失的系统。  各个API介绍  Microsoftimagemoderation  这个API将色情图像分类

7、为“成人”或“猥琐”,我们将这两类都视为NSFW类。以下是一些错误地将安全图片分类为色情类的图片:    Googlecloudvision  这个API将一个色情图像分类为“也许”、“可能”、“非常可能”,这三类都被视作NSFW类。以下是一些错误地将安全图片分类为色情类的图片:    AWSRekognition  这个API将一个色情图像分类为“明显裸露”、“裸露”、“暗示”,这三类都被视作NSFW类。以下是一些错误地将安全图片分类为色情类的图片:    Clarifainuditymoderation  这个API返回一个NSFW/

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。