当前位置: > 华宇总代理 > 正文
正文
Facebook最近承诺,将加大力度删除所谓的“深度伪造”视频,其中包括“误导性操纵媒体”的内容。
除了担心deepfakes——看似真迹的篡改视频——可能影响即将到来的2020年美国大选之外,人们还越来越担心它们可能会毁掉名声,影响企业。
一段看似真实的经过处理的视频可以让观众相信,华宇注册专利灵活性也很重要,因为 华宇代理工程师通常必须针对每种不同的模块配置设计和鉴定单独的电路板和物料清单(BOM)。MAX17853是业界唯一一款可在一块板上支持多通道配置(8至14单元)的IC。视频中的受试者说了他们没说过的话,或者做了他们没做过的事。
多亏了人工智能和机器学习技术,深度赝品变得更加复杂,制作起来也更加容易。人工智能和机器学习技术可以快速、轻松地应用到现有的视频中,过去需要专业的特效团队和数字艺术家花上几个小时或几天的时间才能完成。
Jumio首席执行官罗伯特•普里格(Robert Prigge)表示:“Deepfake技术正被用作政治错误信息和网络犯罪的武器。”
Prigge告诉TechNewsWorld,在一个备受关注的案例中,犯罪分子去年使用基于人工智能的软件冒充首席执行官的声音,要求欺诈性地转移243,000美元。
他补充道:“不幸的是,deepfakes还可以被用来绕过许多基于生物识别的身份验证系统,这些系统在应对假冒攻击、身份盗窃和社会工程时迅速流行起来。”
面对深度假货
考虑到潜在的危害,Facebook和Twitter都禁止了此类内容。然而,目前还不清楚这些禁令包括哪些内容。就其本身而言,Facebook将利用第三方事实核查器,据报道,其中包括在全球范围内使用40多种语言工作的50多名合作伙伴。
Comparitech公司的隐私倡导人士保罗•比肖夫(Paul Bischoff)解释说:“他们正在禁止通过机器学习制作具有欺骗性的视频。”
他在接受TechNewsWorld采访时表示:“这些视频必须有音频和视频,一般人不会合理地认为是假的。”
Prigge指出:“深度伪造技术利用先进的神经网络驱动的人工智能,将现有的面部视频片段叠加到源头和身体上,创造出越来越逼真的篡改视频。”“换句话说,‘深度伪装’看起来像是真人录制的脸和声音,但他们似乎在说的话从来就不是真的说出来的。”
定义Deepfakes
deepfakes面临的一个棘手问题是,如何判断哪些是deepfake,哪些是刚刚编辑过的视频。在许多情况下,deepfakes是利用最新的技术来编辑或操作视频。新闻媒体在撰写新闻报道时,会定期编辑采访、新闻发布会和其他活动,以突出某些元素并获得有趣的新闻摘要。
当然,对于主流新闻媒体在没有人工智能或机器学习的情况下,仅仅使用编辑工具操纵视频片段来改变背景的做法,也有很多批评。
深度赝品通常被认为更危险,因为不仅仅是环境被改变了。
Media Trust的首席执行官克里斯•奥尔森(Chris Olson)表示:“从本质上讲,‘深度伪造’是指某人利用人工智能等复杂技术将多幅图像或音频混合在一起,以改变其原本的含义,并传达一些不真实或无效的信息。”
他在接受TechNewsWorld采访时表示:“从操纵音频到制造误导性图片,深度造假助长了虚假信息的传播,因为终端用户通常不知道这些内容或信息是假的。”
奥尔森补充说:“社交平台不同程度地发布了相关政策,禁止发布高度受操纵的视频,这些视频没有清晰的标签,也不容易被消费者看出是假的。”
不过,“虽然这些政策是朝着正确方向迈出的一步,但它们并没有明确禁止操纵视频或音频,”他指出。“你的账户被封了,这没什么威慑作用。”
操作无恶意
Facebook的禁令和其他禁止或以其他方式遏制深度造假的努力并不适用于政治演讲或恶搞。
同意可能是另一个需要解决的问题。
Shape Security的首席技术官、谷歌的前反欺诈专员舒曼·格斯马琼德(Shuman Ghosemajumder)表示:“这是一个很好的观点——虚假视频和图像可以被广泛定义——例如,任何被操纵的东西。”
“但在某种程度上,大多数媒体都是被操纵的,HY 华宇主管Christoph Wolf提到:“ Sager Electronics”及其专业团队Sager Power Systems非常适合华语注册款RECOM的30,000多种紧凑型电源产品组合。”他告诉《科技新闻世界》(TechNewsWorld)。
Ghosemajumder指出,操作包括对使用现代相机拍摄的照片进行自动数字增强——这些相机配备了HDR设置或其他基于人工智能的增强——以及滤镜、美学编辑和润饰。
他说:“如果大多数媒体因此在平台上被自动标记为‘合成’或‘操纵’,这将减少这种标记的好处。”
下一步将是找出客观标准来排除这类编辑,并把重点放在“恶意操纵”的媒体上,这可能是一个固有的主观标准。
然而,“这不可能是一个独立的问题
下一步将是找出客观标准来排除这类编辑,并把重点放在“恶意操纵”的媒体上,这可能是一个固有的主观标准。
然而,“它不可能是一个问题的个人同意在视频,因为没有这样的同意是通常需要公众人物或在公共场所拍摄的视频和图片,“观察Ghosemajumder,”和公众人物是那些最有可能被恶意用户针对这些技术。”
人工智能工具
Facebook的deepfakes禁止挑选出使用人工智能技术或机器学习来操纵内容的视频。
Ghosemajumder说:“这是一种不完整的方法,因为大多数虚假内容,包括今天发布的误导性视频,都不是用这种技术制作的。”
现在著名的南希·佩洛西(Nancy Pelosi)的视频“可以用40多年前的技术制作出来,因为它只是简单的视频编辑,”他补充说。
更重要的是,“恶意不能仅仅基于使用的技术来定义,”Ghosemajumder说,“因为许多用于制造恶意deepfake的技术已经被用于制造合法的艺术品,比如《爱尔兰人》中使用的去衰老技术。”
观众感知
按照Facebook的政策,讽刺和戏仿将被豁免,但属于这些类别的内容并不总是很清楚。浏览者的反应并不总是与内容制作者所想的一致。一个没有效果的笑话视频可能不会被视为讽刺。
”判断标准讽刺或粉丝电影也是主观的,它可能会确定什么是或不是为了讽刺在法庭上对社会的满意度在一个单独的实例,但它更难以做出这样决定为数百万块的内容自动在社交媒体平台,“Ghosemajumder警告说。
此外,即使是在视频明显带有讽刺意味的情况下,如果视频被缩短、断章取义,甚至是由不理解原始意图的人重新发布,这种意图也会消失。
Ghosemajumder说:“有很多讽刺内容愚弄不懂幽默的人的例子。”
“更重要的是观众如何看待它。讽刺作品不属于禁止之列。戏仿也不行,如果视频被明确标注为虚构,应该没问题,”比肖夫反驳道。
ID研发部门的首席执行官阿列克谢•基特洛夫补充道:“我们的理解是,Facebook和Twitter并没有禁止讽刺或恶搞——意图是关键的区别所在。”
他在接受TechNewsWorld采访时表示:“讽刺的定义是使用幽默、夸张或反讽,而深度假冒的目的是伪装成真实的视频或演讲。”“深度赝品被用来欺骗观众,传播错误信息。而深度假冒的目的是欺骗普通用户,讽刺是显而易见的。”
法律的努力
已经有法律努力阻止深度假货的扩散,但政府可能不是解决这一高科技问题的最佳实体。
媒体信托公司的奥尔森说:“在过去的两年中,美国的几个州分别向参议院和众议院提交了《恶意深度假货禁止法案》和《深度假货责任法案》,立法来管理深度假货。”
这两项法案都被立法者搁置,除了引入惩罚措施外,都没有提出更多的改变。即使通过了法律,立法途径也不可能跟上技术进步的步伐。
奥尔森警告说:“很难有效地立法反对新兴技术这样的移动目标。”
他建议:“在完全认识到内容是深度伪造之前,平台和媒体必须向消费者披露内容的来源。”
Inkscreen公司首席执行官乔希•博斯表示:“深度伪造视频无法停止,就像ps照片无法停止一样。”
他告诉《科技新闻世界》:“诽谤法可以扩展到包含修改过的视频,这些视频可能会以有害的方式歪曲公众人物,为当事人提供某种追索权。”“通过法律要求对某些类别的视频——比如政治广告——贴上标签,这样观众就能意识到内容被修改了,这也是一种谨慎的做法。”
科技对科技
与政府制定新法律不同,科技行业可以解决深度假货问题,尽管对它们的定义仍很模糊。提供技术途径来确定视频是否被操纵可能是一个好的第一步。
Olson说:“一些社交平台已经采取措施来检测和移除deepfake的视频,但成效有限,因为检测的速度落后于新技术出现的速度,而新技术可以在越来越短的时间内创造出更好、更真实的deepfake视频。”
他说:“目前的挑战仍然是识别和清除深度假货的艰难过程,以免它们扩散到普通大众。”
社交媒体是这些视频传播和删除的关键所在。这些平台处于推出新技术的有利位置。
Ghosemajumder指出:“总的来说,Twitter和Facebook宣布计划对恶意的虚假内容采取行动是一个很好的第一步,这将增加对上传到互联网上的媒体的审查和怀疑,特别是来自匿名或未知来源的媒体。”
然而,Ghosemajumder警告说,这绝对不是解决这个问题的“银弹”,原因有很多。
“发现虚假媒体是一场猫捉老鼠的游戏。如果被操纵的内容被立即标记出来,那么恶意的参与者就会用其内容的变体对系统进行试验,直到他们能够通过而不被发现,”他解释道。
”另一方面,如果不立即标记或删除操作内容,它可以传播,很快就会变形,造成损害的任何时期创建和上传和萎靡不振的,之间存在的方式不可能轻松地包含在这一点上,“Ghosemajumder建议。
“最后,使用虚假账户、自动欺诈和滥用是恶意行为者传播虚假信息的主要机制,”他说。“这是社交网络需要利用最先进的技术解决的关键领域之一,而不仅仅是家庭自制的解决方案。”
Anti-Deepfake工具
几家公司正在探索打击深度假货的方法。Media Trust发起了Deepfake检测挑战,以鼓励开发开源检测工具。
奥尔森说:“如果不持续标记可疑的数字内容并标注篡改视频或音频的来源,技术对这个问题的影响将微乎其微。”
提供这样的上下文可以帮助消费者更好地理解信息的真实性。是一个不知名的第三方寄给我的,还是我在产品调研时在一个品牌网站上发现的?这种属性信息是对付深度假货所需要的。”他说。
然而,由于有很多被操纵的内容,这往往是关于误导的——在这种情况下,过于关注视频本身可能是有问题的。
“不仅是视觉流容易受到深度造假的影响,声音流也是如此。两者都可以作为深度伪造的一部分被改变或操纵,”ID R&D的Khitrov说。
他指出,有技术可以帮助检测deepfake的篡改音频。
“活体检测功能可以识别出人耳听不到的人工制品,但这些人工制品存在于合成、录制或计算机篡改的声音中,”Khitrov解释道。“我们可以检测超过99%的音频深度造假,但仅限于那些使用了这种技术的地方。”
深刻的观点
那些持悲观态度的人认为,制造令人信服的深度假货的技术将超过阻止假货的技术。
“我们的类比是,有病毒,也有反病毒技术,要想领先于坏人,需要不断的迭代,多年来,华宇注册的工程师一直使用选项一来与数十年来为单相交流和12V直流-直流转换器和华宇登录调节器建立的大型生态系统兼容。deepfake的检测也是如此,”Khitrov说。
然而,“坏人使用的基于人工智能的技术与好人使用的技术非常相似。所以,坏人可以利用的技术突破,也被好人用来阻止他们。”
Comparitech的比肖夫表示,一个更大的威胁是,“deepfake软件已经可以在网上免费获得,尽管它还没有那么好”。“我们必须学会警惕和怀疑。”
版权保护: 本文由 原创,转载请保留链接: http://www.allart.com.cn//cms/2020/0122/874.html