不知道多少人还记得2007年“林甘视频案件”?这是涉 及背后操控和内定法官升迁的司法丑闻。当皇家调查委员会 确认视频的真伪和鉴定涉案人士后,视频中的主角林甘(V K Lingam)供证时却显得非常淡定,坚决强调视频中的 人“看来像我,听来像我,但不是我。”最后,这番对白也 成了经典名句。
换作以前,人证物证俱全之下,若附带视频,被告就很大成 数无法脱身。然而,面对日益发达的人工智能(AI)技术 ,当视频都能伪造时,原本苍白无力的林甘名句无意间却预 示了一种可能,甚至改变了世界对新闻或真相的拿捏尺度。
近期我国男男性爱视频事件就提到了“深度伪造”(Dee pfake)这个词汇,有人揣测,劣质的视频画面是为了 掩饰“深度伪造”的痕迹。不过,事实是否如此?澳洲特别 广播服务公司(SBS)邀请4位视频验证专家分析有关视 频,有两人声称没有发现造假的证据,另外一人则认为无法 从中判断。
在未取得原始档案情况下,难以精准判断视频是否经过“深 度伪造”,即使是专家也不敢一口咬定是真或假。有一个很 好的例子,美国喜剧演员Jordan Peele和网络媒体Buzzfeed一起制作了恶搞奥 巴马视频,两人可没有换脸,而用Adobe After Effects和FakeApp软件,把Jordan Peele的嘴巴套在奥巴马脸上,最终成品很自然看到奥 巴马在“吐槽”美国现任总统特朗普。倘若Jordan Peele不在社交媒体贴出对比视频,普罗大众根本无从 分辨,还以为是真的。
另一位重量级人物近期也“中招”,两名英国艺术家成功篡 改脸书创办人扎克伯格视频,但由于声音有些奇怪,很快被 人发现是假视频。两人均声称没有欺骗用户,因为视频都有 加上“deepfake”标签。
人工智能固然提供了很多科技机遇,但也引起不少恐慌,对 于这个恶作剧视频或“深度伪造”技术,美国国防部不敢掉 以轻心,也意识到会有潜在的威胁,毕竟伪造一国领导人的 视频会引发无可预计的后果,形同一种虚拟的“操控术”, 随意制造各种舆论。美国国会众议院情报常设委员会在6月 中便与人工智能专家小组召开会议,探讨应对“深度伪造” 技术事项,因为担心影响2020年美国总统选举,恐怕选 民会收到很多虚构讯息或伪造视频,从而影响选举成绩。
然而,想深一层,即使是伪造视频,上载伪造视频者需不需 要负上法律责任?作为社交媒体平台,既然知道有关视频涉 及敏感人物或言论,如何在创作自由和遏制假信息之间取得 平衡?我提一个例子,假设今天有人伪造股神巴菲特视频, 真假掺半的讨论股市走势,会不会引起市场波动?对于媒体 而言,除非亲自采访,往后各种政治人物发布视频,都会竭 力求证,以免损害媒体公信力,散播假新闻。
接着,遭利用的人物如何捍卫保护本身的肖像权?以往谐星 恶搞政治人物、社会知名人士是为了博君一笑,但随着网络 假新闻如此泛滥,“深度伪造”的视频有可能加速假新闻在 网络流传。换一个角度大胆假设一番,这个“深度伪造”技 术也可能成为政治人物的一个借口,有丑闻视频爆发后,只 要推说这是伪造的,岂不是推得一干二净?结果,真的视频 就变成了假视频。
(刊登于2019年6月21日,《星洲日报》言路版)
链接:
https:// www.sinchew.com.my/content/ content_2071204.html
2007年“林甘视频案件”视频截图
换作以前,人证物证俱全之下,若附带视频,被告就很大成
近期我国男男性爱视频事件就提到了“深度伪造”(Dee
在未取得原始档案情况下,难以精准判断视频是否经过“深
美国喜剧演员Jordan Peele“变成”奥巴马嘲讽美国现任总统特朗普
另一位重量级人物近期也“中招”,两名英国艺术家成功篡
人工智能固然提供了很多科技机遇,但也引起不少恐慌,对
然而,想深一层,即使是伪造视频,上载伪造视频者需不需
即使是伪造视频,上载伪造视频者需不需 要负上法律责任?
接着,遭利用的人物如何捍卫保护本身的肖像权?以往谐星
(刊登于2019年6月21日,《星洲日报》言路版)
链接:
https://
Comments
Post a Comment