您的位置:bob体育官方平台 > 军事速递 > 看互联网新技术的治理,即将到来的后真相地缘政治时代

看互联网新技术的治理,即将到来的后真相地缘政治时代

2020-02-08 23:13

我们常说:“耳听为虚,眼见为实。”日前,一种被称为“深度造假”的技术,却使我们眼见也未必为实。华盛顿大学的研究人员曾用奥巴马的音频和视频资料,创造出一个他的“替代者”。

图片 1

图片 2

图片 3

“深度造假”技术是人工智能最新发展的产物。它通过提供一个人的形象、声音等信息,开发计算机程序指令,使计算机能模仿人说话。谷歌公司就利用这一技术为其搜索引擎开发出了强大的图像分类算法。一家公司声称,他们可以利用这项技术,使因疾病而丧失发音能力的人恢复讲话能力。

【美国《外交》双月刊网站2018年12月11日文章】题:深度造假与新的假情报战——即将到来的后真相地缘政治时代(作者罗伯特·切斯尼丹尼尔·西特龙)

美国众议院情报委员会(House Intelligence Committee)上周听取了专家的证词,内容涉及“深度造假”所构成的日益严重的威胁,以及它对2020年大选以及美国整体国家安全可能意味着什么。深度造假指的是篡改的视频和其他人工智能生成的虚假信息。

作者 | 张钦坤 腾讯研究院秘书长

由于“深度造假”技术能逼真地对音视频的数字信息进行操控,描绘某件从未说过或做过的事情,因而该技术受到某些情报组织的格外青睐。其最极端的应用,很可能是在国际政治事务中,通过“合成人”制造谎言和动乱,令某国领导人和国际组织机构名誉扫地。

一幅照片可能相当于一千字的价值,但没有什么能像有关一起事件的录音或视频那样具有说服力。在党派纷争使人几乎无法就事实达成一致的时候,这种说服力似乎可以带来一种可喜的澄清。录音和视频使人们可以成为某起事件的直接见证人,使之不必去判断是否要相信别人的叙述。得益于智能手机和社交媒体平台,人们今天能够在前所未有的程度上依靠自己的眼睛和耳朵。

这些统称为“深度赝品”的技术可以利用人工智能或机器学习的“生成对抗网络”技术,将现有的图像和视频与其他图像或视频进行组合或叠加。

曹建峰 腾讯研究院高级研究员

近年来,越来越多的人已开始从脸书和推特等社交媒体平台获取信息。这些平台存在大量未经过滤的内容,人们热衷于传递他人所分享的信息,而不用去核实这些信息是否属实,从而使“以讹传讹”大行其道。最终的结果是,谎言比以往任何时候传播得都快,这也极大地增加了信息情报鉴别的难度。

假情报战一触即发

这里面存在着巨大的危险。想象一下,一段视频显示,以色列总理在私下与一位同事交谈时,似乎透露了在德黑兰实施一系列政治暗杀的计划。或者一段有关伊朗官员策划在伊拉克某省采取秘密行动杀害逊尼派领导人的音频。或者是一段显示一名美国将军在阿富汗焚烧古兰经的视频。在一个已经为实施暴力做好准备的世界上,这样的录音或录像具有很大的煽动潜能。现在,想象一下,这些录音或录像可能会由几乎任何拥有笔记本电脑和能上网的人都能获得的工具伪造,而且所产生的伪造物令人深信不疑,以至于无法将其与真品区别开来。

数字技术的进步可能很快使这场噩梦成为现实。由于“深度造假”——极为逼真且难以察觉的对音频或视频的数字操纵——的兴起,描绘某件从未说过或做过的事情变得比以往任何时候都更加容易。更糟糕的是,“深度造假”的手段很可能会迅速扩散,产生一个日益扩大的、能够出于政治目的而造假的行为者圈子。当然,虚假信息是一门古老的艺术,在今天又有了新的用武之地。但是,随着“深度造假”技术的发展和传播,当前的假情报战可能很快就会看起来像刀剑和盾牌时代的宣传一样。

这些功能允许创建包括色情在内的假名人视频,以及传播假新闻和其他恶意恶作剧。

今年,人工智能等新技术的治理,在全球范围内获得了广泛的关注。美欧开始针对人工智能相关应用探索多元化的治理措施。我国也开始回应人工智能新技术及其应用的潜在风险,《民法典人格权编草案》《数据安全管理办法》《网络音视频信息服务管理规定》等都有所涉及。此外,网信办发布的《网络生态治理规定》,在强调政府、企业、社会、网民等主体共同治理网络信息内容的同时,也及时回应了算法推荐、深度伪造、流量造假、网络暴力等热点问题。

“深度造假”日新月异

“深度造假”是被称为“深度学习”的人工智能最近取得进步的产物。在“深度学习”中,称为“神经网络”的一组组算法学会通过筛选很大的数据集来推断规律和复制模式。例如,谷歌公司就利用这一技术为其搜索引擎开发出了强大的图像分类算法。

这项技术有可能广泛扩散。公开市场上已经出现了商业性的、甚至是免费的深度造假服务。在黑市上则可能会出现一些几乎没法防范的版本。这意味着在不久的将来,对人们炮制“深度赝品”能力的唯一实用的限制方法,就是限制获取训练材料的机会——即限制获取需要模仿的人的音频和视频的机会。对于几乎任何一个有足够兴趣并知道去哪里寻求帮助的人来说,炮制达到专业级别的赝品的能力都是唾手可得。

“深度造假”有许多有价值的应用。例如,可以为教育儿童的目的制作经修改的历史人物的音频或视频。一家公司甚至声称,它可以利用这项技术,为因疾病而丧失发音能力的人恢复讲话能力。但是,“深度仿冒”也可以、也将会被用于更险恶的目的。用户已经在未经人们同意或不被知情的情况下利用深度仿冒技术将其脸部图像插入色情音像之中。而且制作假冒音像内容越来越容易,因而将为敲诈、恐吓和破坏创造大量机会。然而,“深度假冒”技术最可怕的应用很可能是在政治和国际事务领域。在那里,“深度赝品”可能会被用来制造异常有效的谎言,从而煽动暴力活动,令领导人和组织机构名誉扫地,甚至使选举结果发生逆转。

听证会之前,众议院议长佩洛西(Nancy Pelosi)的一段修改过的视频在网上广泛流传。这让她显得有些受损。这段视频在社交媒体上广为流传,在Facebook上的点击量超过250万次。

算法推荐引发负面影响,风险防范与技术和产业发展的平衡需要分级分类多元治理

社交媒体推波助澜

“深度造假”之所以有可能具有特别严重的破坏性,是因为其问世之际正值事实与虚构已经越来越难以区分。在20世纪的大部分时间里,杂志、报纸和电视广播公司一直管控着信息的流向。新闻记者建立了严格的专业标准来控制新闻的质量,大众传媒机构相对较少的数量意味着,只有数量有限的个人和组织能够广泛地传播信息。而最近10年来,越来越多的人已开始从脸书和推特等社交媒体平台获取信息。这些平台依赖大量用户生成相对未经过滤的内容。用户往往会对自己的体验加以调节,因而他们大多会遇到自己已经认同的视角,从而使其社交媒体信息来源沦为人云亦云的“回响室”。这些平台也容易受到所谓的信息瀑布效应的影响,即人们传递他人所分享的信息,而不用费心去核实这些信息是否属实,从而使这种以讹传讹在这一过程中显得更加可信。最终的结果是,谎言比以往任何时候都传播得更快。

这些动态因素将使社交媒体成为传播“深度仿冒品”的沃土,从而对政治产生潜在的爆炸性影响。俄罗斯试图影响2016年美国总统选举——在脸书和推特网站上散布具有分裂性和政治煽动性的信息——已经表明虚假信息多么容易被注入社交媒体的血液流动之中。与2016年的假新闻相比,明天的假新闻将更生动、更逼真,因此也更具共享性。而由于人们特别容易分享负面的、新颖的信息,所以“深度假冒”越是情节惊人,就会越有效。

图片 4

图片 5

深度造假已成为一个两党共同关心的问题,民主党和共和党都对利用受操纵的视频作为虚假信息工具表示担忧。

近年来,随着人工智能算法推荐的广泛应用引发的虚假信息、用户隐私、信息茧房、算法歧视等负面影响的持续发酵,我国相关立法和标准开始关注算法推荐。《电子商务法》《数据安全管理办法》以及国家标准《个人信息安全规范》最新修订草案等都作出了规定,要求标明“定推”字样,给用户提供“退出”选项并删除个人信息,禁止歧视、欺诈等。此次《规定》进一步明确算法推荐与人工编辑相结合的信息分发方式,第15条要求建立体现主流价值导向的推荐模型,建立健全人工干预机制,建立用户自主选择机制,进一步回应了算法推荐的相关问题。

众议院情报委员会听取了四名不同的人工智能专家的证词,以及关于深度造假对美国政府乃至民主可能带来的风险的虚假信息。然而,一位专家也警告称,深度造假可能对私营部门构成威胁。其中一个场景可能涉及一段深度伪造的视频,显示一名首席执行官正在犯罪。将这类视频投放市场可能会影响一家公司的股价。

从行业角度看,个性化算法推荐对贴近用户需求以及构建互联网内容和服务生态十分重要,在各类移动互联网平台的快速崛起中扮演着重要角色,已被广泛应用于新闻、视频、音乐等数字内容及广告、商品、服务等的分发、推荐。但在经历了算法有没有价值观的大讨论之后,人们越来越多地认识到算法并不是万能的,其在提高信息内容分发效率的同时,却可能带来用户隐私、信息茧房、内容安全、传播虚假信息等问题,甚至可能影响公众认知,加剧社会分层和偏见等。所以企业在部署应用算法决策的时候,一方面需要持续优化算法模型,确保数据和算法的准确性、有效性、公平性等;另一方面需要以人工干预等方式进行适度的管理,例如对进入推荐池由算法进行推荐的文章,需要经过审核。

无论是在政界还是商界,即使一段视频被揭穿,损害也可能是持久的。

图: 来源:网络

深厚的历史

国外也开始多举措规范包括算法推荐在内的算法决策的应用,例如欧盟GDPR通过赋予用户选择和控制权限来解决用户画像和自动化决策中的隐私问题,除此之外并没有给算法推荐等自动化决策提出其他更多的监管要求;而美国加州CCPA对于个人信息的处理则继续沿用opt-out机制,对消费者更为实用,也更有利于市场发展和市场竞争。但数据创新研究中心作为deep learning和fake组合而成的新生事物,是随着生成对抗网络等深度学习技术的发展而出现的。其最常见的方式是AI换脸,例如deepfake、face2face等技术,此外还包括语音模拟、人脸合成、视频生成等,统称为深度伪造。深度伪造和合成内容给网络平台治理带来了新挑战,主要表现为利用深度学习等AI技术伪造或合成高度逼真且真假难辨的图片、音频、视频来进行欺骗和欺诈,如色情报复、敲诈勒索、假冒身份、散布虚假信息等,给个人和企业利益以及公共安全带来威胁。而且深度伪造生成方法开源软件的增多,极大地降低了操纵、伪造音视频的门槛。报告显示,网上的深度伪造视频的总数比去年12月翻了一番,达到近15000个,其中伪造的色情视频占比高达96%。[3]

“深度赝品”一词于2017年首次出现,但修改和操纵视频的能力可以追溯到1997年发布的视频重写程序。它允许用户修改一个人说话的视频片段,以描述这个人从一个完全不同的音轨上用嘴说出的话。

除了此次《规定》提出的概括性禁止要求,《民法典人格权编》第799条、《数据安全管理》第24条,以及日前发布的《网络音视频信息服务管理规定》第10-13条等都作出了规定。主要包括:禁止利用信息技术手段伪造的方式侵犯他人的肖像权和声音;针对自动合成的信息内容标明“合成”字样;上线相关功能或服务需开展安全评估,对非真实音视频信息予以标识,禁止深度伪造的虚假新闻消息,部署鉴别技术并在对非真实音视频信息进行标识后方可继续传播,建立辟谣机制,等等。这些规定表明深度伪造等新技术新应用已经引起我国立法的高度重视。

结合视频和改变内容的技术在好莱坞使用的时间甚至更长,但这通常是一个昂贵和耗时的努力。例如,电影《阿甘正传》(Forrest Gump)就要求一个艺术家团队将汤姆汉克斯(Tom Hanks)饰演的这个角色变成具有历史意义的影片。现在,20多年过去了,结果远不如今天的软件所能做的那么好。

全球来看,美国最早对深度伪造进行规制,今年以来,美国尤其担心深度伪造对2020年大选和国家安全的影响,开始探索立法应对措施,防范潜在滥用风险。2019年6月,美国国会先后提出了两部法律草案《深度伪造责任法案》[4]和《2019年深度伪造报告法案》[5]。此外,美国的加州、德州、马萨诸塞州、弗吉尼亚州等也陆续推出了相关立法。这些立法提出的主要措施包括:第一,设定应用红线,禁止政治干扰、色情报复、假冒身份等非法目的的深度伪造,否则可能构成刑事犯罪;第二,设置披露义务,要求制作者、上传者以适当方式披露、标记合成内容,例如采取嵌入数字水印、文字、语音标识等方式;第三,加强技术攻防,要求开发检测识别和反制技术。

2018年1月发布的FakeApp等简单程序允许用户轻松操作视频、交换面孔。该应用程序使用人工神经网络和4 GB的存储空间来生成视频。

综合国内外监管趋势来看,遏制深度伪造技术的滥用需要多方主体共同努力,采取分类分场景监管、行业自律、技术对抗、数字素养提升等多元化的举措,在防范风险的同时促进深度伪造技术妥善利用。在合理有效、灵活敏捷的监管之外,还需重视以下两点。

视频的质量和细节取决于所能提供的视觉材料的数量,但鉴于今天的政治人物出现在数百小时的连续镜头中,制作一个引人注目的视频是很容易的。

一方面,探索更多有益运用场景,提振产业发展信心。深度伪造作为内容创作工具有其积极的应用价值,可在娱乐、新闻媒体、影视制作、教育等诸多领域运用,例如实现虚拟主播、替身演出、虚拟歌手等,改善医学图像分析,丰富社交网络体验和自我表达等。面对深度伪造带来的风险,在积极应对的同时,还应鼓励行业探索更多有益运用场景,为人工智能技术开发提供更多实践样本,引导人工智能技术向善发展。

打击假货

另一方面,从源头要求制作者对深度伪造进行标注,同时鼓励行业开发应用检测识别技术,推动建立相关技术和行业标准。当前美国的做法主要是要求制作者对深度伪造内容进行标注,否则可能承担民事责任,严重时还将承担刑事责任,从而从源头上对深度伪造进行规范。这一源头治理的做法具有合理性,因为没有标注的深度伪造内容一旦传播出去之后,第三方就很难鉴别,检测技术的开发、成熟也面临着诸多困难,而且难以跟上深度伪造技术进化的步伐,所以开发溯源技术并进行源头标记是最有效的措施。此外,当前谷歌、Facebook等美国主流科技公司都开始通过多种举措,发展甄别深度伪造和合成内容、对抗深度伪造技术滥用的方法和工具,包括:构建并开放深度伪造数据集,为研究、开发检测识别技术提供基准;支持、发起深度伪造检测挑战赛,与行业携手推动检测技术的研究与开发;开发深度伪造检测识别和标注工具;培训专门的合成内容审查人员,加强对视频内容的真实性审核。但是考虑到行业内当前还没有通用的、高准确率的视频鉴伪网络,相应的鉴伪技术也都尚在初步阶段、还有很长一段路要走,所以不宜强制要求平台对用户上传的或第三方的视频是否属于“深度伪造”或“自动合成”进行检测识别,并以此为由要求平台承担责任,因为这将给企业带来不成比例的管理负担和成本。而且技术攻防本来就是“魔高一尺道高一丈”、处于不断发展之中,故不宜将其转变为硬性要求并与法律责任挂钩,所以如前所述,美欧没有强硬要求平台部署鉴别技术,而是采取了源头治理让制作者、上传者对深度伪造内容进行标注,这具有合理性,值得肯定。

打击深度假货的技术正在研发中。南加州大学信息科学研究所开发了一种工具,可以检测到高达96%的正确率假货。它能够检测细微的面部和头部运动,以及独特的视频“伪影”——由压缩引起的媒体明显失真,这也可以表明视频操作。

流量造假行为被纳入禁止性规范,技术管网遏制流量经济野蛮生长

以前检测深度赝品的方法需要对视频进行逐帧分析,但南加州大学ISC的研究人员开发了一种工具,该工具已经在1000多个视频上进行了测试,证明其计算强度较低。

《规定》第25条规定,网络信息内容服务使用者不得通过人力或者技术手段实施流量造假、流量劫持以及虚假注册账号、批量买卖账号、操纵用户账号等行为,破坏网络生态秩序。这一规定将流量造假等行为列为破坏网络生态秩序的禁止性行为,有利于规范数据利用,从源头制止流量造假。

随着视频被上传到Facebook和其他社交媒体平台上,它有可能扩大规模,并被用于自动——更重要的是快速——检测假货。这将允许近实时检测,这将阻止此类视频病毒式传播。

流量是网络文化的重要指标之一。流量经济时代,流量劫持、流量造假等问题开始挑战传统法律。流量造假纠纷不仅发生在个人主体之间,平台间的流量之争则更加复杂。去年8月,爱奇艺公司诉杭州飞益信息科技有限公司不正当竞争案中,法院认定通过技术手段增加无效的爱奇艺网站视频访问数据并获取不当利益的行为破坏数据的真实性以及完整性,构成不正当竞争,这表明被刷流量方也可能成为流量纠纷中的受害者。今年5月,全国首例暗刷流量案当庭宣判合同违反社会公共利益而无效,并上缴所有非法所得。流量造假、流量劫持以及虚假注册账号、批量买卖账号、操纵用户账号等行为,不仅损害消费者权益,破坏商业模式,还会损害数据信息价值,造成大数据产业“劣币驱逐良币”。

南加州大学ISI的研究人员依靠一个两步的过程。它首先要求上传数百个经过验证的个人视频。一种被称为“卷积神经网络”的深度学习算法允许研究人员识别人脸的特征和模式。然后,这些工具可以通过比较动作和面部特征来判断视频是否被操控。

图:蔡徐坤1亿转发量流量造假被央视批评曝光

这一结果类似于生物识别阅读器,可以识别人脸、视网膜扫描或指纹,但就像这些技术一样,比较也需要一个基线。对于佩洛西议长或汤姆汉克斯(Tom Hanks)等知名人士来说,这可能很容易,但对于普通人来说,可能就没那么容易了,因为现有视频素材的数据库可能有限,或者根本不存在。

整体而言,流量造假背后已经形成了巨大的灰色利益链条,从线上到线下需要更加严密的监管体系。首先,平台可以加强流量监控合作,形成全平台联动打击。以往的互联网相关法规中,对流量造假等行为的规制主要在于提高平台责任,要求平台监控异常数据,屏蔽造假网页、处理虚假账号等。下一阶段,为应对大规模的流量造假,需要加强平台合作,建立平台与平台间的联动打击机制。

有可能被武器化

其次,大力发展互联网内容产业,丰富网络评价体系,告别“唯流量论”。网络直播销售、明星流量变现等商业模式催生了流量造假行为,畸形的利益分配机制是导致流量造假的根本原因。要扭转这一局面,必须回归互联网内容产业的发展,丰富评价体系,摆脱“唯流量论”。

无论是从个人层面,还是从国家层面,深度造假都有可能比“ps”照片更糟糕,造成更大的损害。

再者,提高违法成本,有效震慑流量造假行为。如今流量造假行为已经渗透到电商、娱乐、影视等多领域,利益的深度捆绑让流量造假的多方主体均对该行为保持缄默。2018年《反不正当竞争法》的互联网专条对流量劫持、恶意不兼容等问题进行了规制。2019年《电子商务法》明确禁止电商平台买流量刷好评行为。未来还应进一步加大执法力度,提高违法成本,破除该纵深灰色利益链条。

媒体信托数字安全和运营经理乌斯曼•拉希姆(Usman Rahim)警告称:“经过ps的图像和人工智能辅助的视频有着天大的不同,人们应该关注深度造假,因为它们具有更高的真实性和武器化的潜力。”

网络暴力成诸多恶性事件导火索,监管之外还需引导理性上网

原因之一是,如今人们接受照片可以被修改,以至于这些照片被称为“廉价赝品”。视频是一个新的领域。

《规定》第22条针对网络暴力作出专门规定,明确禁止网络用户的网络侵权和网络暴力行为,违反该规定将依照相关法律、行政法规处理。网络暴力在新技术背景下具有新的发展趋势如人工智能被用于实施色情报复等,该规定有助于净化网络环境、维护健康的上网秩序,并规范新技术的应用。

拉希姆在接受《电子商务时报》采访时表示:“更少的人意识到,虚假视频已经变得多么真实,为了传播虚假信息、破坏声誉或破坏民主进程,制作这些视频是多么容易。

互联网在为用户提供充分表达空间的同时,非理性的声音也极易通过网络发酵,造成大规模网络行为失范。以语言暴力、隐私泄露等为典型,网络暴力主要表现网络欺凌、网络跟踪以及网络骚扰,具体而言:一是对未经证实或已经证实的网络事件,公开发表带有伤害性、侮辱性和煽动性的失实言论;二是在网上公开他人个人隐私,侵犯其隐私权;三是对他人及其亲友的正常生活进行行动和言论侵扰等。网络暴力引发的社会恶性事件层出不穷,不仅对当事人身心、名誉、财产等方面造成实质性损害,还会影响社会价值观,破坏网络生态秩序。

“在错误的人手中,深度造假通过互联网传播,尤其是社交媒体,可以对个人,乃至更广泛的社会和经济产生巨大影响,”他补充说。

而且近年来,网络暴力事件逐渐增多,冲突行为逐渐升级。中国社科院2019《社会蓝皮书》显示,其调查对象中,约有28.89%的青少年在上网过程中遇到过暴力辱骂,而60%以上的青少年对此没有采取任何措施。美国反诽谤联盟ADL2018年调查显示,全美范围内约37%的被调查民众曾经历过性骚扰、被视奸跟踪、人身攻击、持续骚扰等各样的极端网络暴力。此外,如前所述深度伪造等新技术也被用于色情报复、敲诈勒索等网络暴力行为,网络上的深度伪造内容几乎都是伪造的色情视频。

“除了国家安全风险——例如,一个深假视频的世界领导人用来煽动恐怖活动——政治风险尤其高在竞争激烈的全国选举,如2020年,与多个候选人寻求推翻一项有争议的现任,”拉里·帕内尔副教授指出,战略公关项目主管政治管理在乔治华盛顿大学的研究生院。

网络暴力的成因复杂,牵涉面广,对暴力信息往往难以及时介入和监管。首先,互联网的复合性传播方式为网络舆论发酵提供了便利。互联网多样化的传播方式使得暴力信息可以通过公开网页、即时通讯设备等进行公开、小范围以及一对一的传播,暴力信息一旦传播开来,便难以控制。其次,网络暴力信息界定模糊,难以及时发现并处理。在技术过滤和人工审核的双重保障下,对于明显的违法信息或含敏感词信息,能进行有效拦截。但是,对于舆论形成初期,如何在健康的舆论环境中识别出暗含网络暴力可能性的话题,如何区分正当的舆论监督和暴力信息都尚未明确操作标准。整体而言,目前针对网络暴力的治理仍以事后监管为主,对网暴事件发生的施暴引导者、不实信息散布者及事件背后的组织策划者等关键对象进行惩治。引导用户理性上网,提升网民素养是从源头消解网络暴力的必要手段。

他在接受《电子商务时报》采访时表示:“任何一方都有可能被诱惑从事这种活动,这会让‘老派’的肮脏伎俩显得俗不可闻。”“我们已经看到社交媒体可以如何影响2016年的全国大选。与过去两到三年里这项技术变得多么先进相比,这似乎只是小菜一碟。”

探索新技术治理的中国模式,为新技术发展应用营造良好的制度土壤

除了政治和安全风险

如前所述,连同此次《规定》在内,我国近一两年一系列立法开始加强规制人工智能等新技术及其应用。但在当前的国际化发展形势下,新技术成为各国竞争的核心,如何在日趋严峻的国际竞争形势下,为新技术创新发展和应用普及营造良好的制度土壤,从而占据技术发展和产业应用高地,是我国在监管新技术新应用时需要着力思考的。

深度造假可能会在更私人和个人层面上带来一个问题。这项技术已经被用来制作复仇色情视频,而且有可能被用于其他邪恶或邪恶的目的。

历史地看,美国硅谷之所以在互联网时代成为全球科技创新中心,除了资本、人才、人才流动等因素之外,其成功在很大程度上归因于美国互联网友好型的法律变革,诸如适度的平台责任、版权避风港和开放式的合理使用制度、行业自律为主的隐私监管等,这些制度规定为硅谷企业在Web 2.0时代的巨大成功提供了良好的法律制度土壤,天才的程序员们才得以发挥其聪明才智,带来令人惊艳的创新产物。[6]这可以给全世界正在进行中的新技术治理提供很好的启发。

媒体信托的拉希姆说:“在无人监管的孩子手中,深度造假可以把网络欺凌提升到一个新的水平。”

当前在新技术治理方面,欧盟最为活跃。GDPR、数字税、人工智能监管等都旨构建欧盟内部统一的互联网监管标准和模式,但其对新技术的严格管制能否最终转化为其在人工智能等新技术、新产业发展等上的国际竞争力,是值得深入探讨的。除了对自身发展的考量,欧盟的互联网强监管还有另外一个人们经常提及的原因,就是通过设定偏向性的法律规则来制衡、约束美国,意在为欧盟自身赢得产业发展机遇。用欧盟官方的话来说就是,让互联网惠及所有人,而非个别公司。

“想象一下,如果我们自己或孩子的照片被使用并在网上发布,会发生什么,”他补充说。

就我国而言,防范新技术新应用相关的风险,已经成为了我国互联网治理的重要内容,需要明确整体上的治理思路和路径。如前所述,在中美欧引领互联网竞争的国际背景下,对于新技术新应用欧盟采取了更为侧重监管的路径,而美国相对宽松的监管环境在新技术背景下不大可能发生大的改变。以此为出发点,我国在监管新技术新应用的时候,需要考虑国际竞争视角和新技术新应用的社会经济效益,兼顾监管治理需求、防范风险、权益保护与技术创新、产业发展等。更进一步,在实践层面,多层次的治理体系比单一的监管和法律更能适应人工智能等新技术快速发展迭代、日益复杂化的特征,行业标准、自律公约、技术指南、最佳实践、伦理框架、伦理教育和技术素养等都将发挥更大的作用。在监管方面需要“疏堵结合、包容审慎、敏捷灵活”的方式,“疏”即破除新技术应用面临的法律障碍,如自动驾驶汽车、AI医疗等面临的传统监管障碍,构建新的监管框架;“堵”即明确应用边界,并以包容审慎、敏捷灵活的方式防范风险,保障技术和产业发展空间。

乔治华盛顿大学的帕内尔警告说:“我们甚至可能在法律诉讼中看到虚假视频和社交媒体帖子被用来作为证据,指控一个有争议的人物,让他们闭嘴,或者破坏他们的信誉。”

注:感谢腾讯公司安全管理部安全战略研究中心高级研究员赵玉现在此文写作过程中提出宝贵建议,腾讯研究院助理研究员熊辰协助进行资料搜集。

已经有人呼吁让科技行业为制造深度假货负责。

参考资料:

俄亥俄大学(Ohio University)沃伊诺维奇领导与公共事务学院(Voinovich School of Leadership and Public Affairs)教授阿尼鲁德?

[1]

他在接受《电子商务时报》采访时表示:“如果你是传播深度假货的社交媒体或其他科技平台,你将被追究责任,并支付赔偿金,甚至可能坐牢。”

[2]_STU(2019)624262

“这是你唯一的政策选择,否则你的社交媒体平台和网站就会因为向大众推送深度假货而受到惩罚,”鲁希尔补充说。

[3]

这些令人发指的视频的作者可能不容易被找到,在某些情况下可能是一种世界性的方式,使起诉成为不可能。

[4]

他说:“在某些方面,这一政策类似于有人可能会对枪支管制提出的论点:把目标对准那些能够造成巨大伤害的武器销售商。”“如果我们让科技行业放任自流,你会看到我们在监管Facebook、YouTube、Twitter等网站时遇到的同样困难再次上演。”

[5]

反击

[6] _3oKDj2WnPioFMlk9-bwvw

关于deepfake的好消息是,在很多情况下,这项技术仍然不完美,而且有很多迹象表明视频被操纵了。

此外,已经有一些工具可以帮助研究人员和媒体分辨事实和虚构。

拉希姆说:“社交媒体和平台,以及传统媒体都可以使用这些工具来识别深度假货,要么删除它们,要么贴上标签,这样用户就不会被愚弄了。”

另一种解决方案可能很简单,就是在图像和文件中添加“数字噪音”,使它们更难被用来制作深度赝品。

然而,就像在网络安全领域一样,坏人很可能会领先一步——因此,今天的解决方案可能无法解决明天生产深度假货的方法。

在这个问题变得无法解决之前,可能有必要投入更多的精力来解决它。

帕内尔表示:“尽管这可能是一个持续且昂贵的过程,但大型科技公司现在应该投资新兴技术,以发现深度假视频。”

他补充说:“DARPA和其他政府和私营部门的公司正在开发可以利用的软件,否则就会措手不及,并因不这样做而受到公开批评,并因此而遭受严重的声誉损害。”

目前,出版商和社交媒体平台能做的最好的事情,就是呼吁并根除深度造假,这将有助于恢复信任。

拉希姆说:“如果他们不这样做,他们的信誉就会继续下滑,他们自己的企业就会走向灭亡。”

他警告称:“人们对社交媒体平台的不信任尤其在上升,人们认为社交媒体平台的威胁几乎与黑客一样大。”

拉希姆指出:“以维护或重新获得消费者信任为代价,优先考虑消费者数据货币化的时代,正在让位于一个新的时代,在这个时代,在线信任与不断增长的利润密切相关。”“社交媒体和传统媒体也可以成为一股正面力量,通过揭露坏人,提高消费者对深度假货流行和威胁的意识。”

本文由bob体育官方平台发布于军事速递,转载请注明出处:看互联网新技术的治理,即将到来的后真相地缘政治时代

关键词: