作者|莱克西
编辑|陆
圆子园
图片来源:工具生成。
在过去的几个月里,人工智能一直很小。首先,OpenAI的大模型GPT-4发布了。很多评测表明,它比ChatGPT准确得多,学习速度也更快。ChatGPT很快宣布支持插件,表示可以通过第三方服务为用户提供更强大的功能。
这些消息让整个网络为之兴奋,而当AI的智能被推上神坛的时候,AI也在悄悄露出它的另一个阴暗面,那就是它会撒谎不会选秀的能力。
生成人工智能:谎言制造者
众所周知,AI的强大之处在于它能够迅速收集各种来源的信息,并根据用户的特殊指令采取行动,这说明即使是非常荒诞和片面的信息也有可能被AI说出,谣言也因此因为其表达的合理性和完整性而被大众接受和传播。
新闻评级网站Newsguard最近做了一次尝试。他们要求ChatGPT以反新冠肺炎疫苗的口吻说话。于是,AI产生了一个看似很有道理的说法,关于疫苗药企如何不择手段,甚至对儿童健康造成极大负面影响的说法是“有理有据”的。他们不在乎。
如果这样的技术落入造谣者手中,很多无知的人就会上当受骗。
ChatGPT抗疫苗
不仅仅是文字,还有AI伪造图片和视频的能力。
一系列特朗普被捕的假照片在网上被疯狂转载。这些用AI工具MidJourney创建的图片非常假,即使有些细节不合理& # 8211;比如图中的特朗普有三条腿,依然不妨碍网友们的转发和相信。
特朗普被捕pic
但是视频因为其复杂性,往往给人一种很难伪造的错觉,但是只要你在图片的基础上稍微有点技巧,伪造视频并没有那么难。
Deepfake技术的出现让这件事变得非常简单。比如马斯克为加密货币交易平台做广告,拜登和奥巴马打游戏,假汤姆·克鲁斯打高尔夫,表演魔术,无数女明星都是deepfake的产品。除了鉴定假货的专家,普通人真的很难分辨真假。
奥巴马在玩电子游戏
deep假汤姆·克鲁斯
AI或许能拍出搞笑的画面,但某些场景下虚假信息的负面影响是致命的。
《刑事科学》2020年的一份报告称,在AI未来15年可能制造的安全威胁中,深度伪造被列为最严重的一种,哈里斯民调机构的一项调查也显示,美国67%的成年人对生成式人工智能技术的安全性深感担忧,只有约29%的受访者表示从未使用过这种技术,也不打算使用。
打假AI:没那么简单。
目前很多AI技术的开发者认为,这个问题需要“以毒攻毒”,技术制造的麻烦需要技术来打破。在这一点上,科技巨头们已经开始行动了:
●早在2019年,谷歌就发布了大型开源数据库。在招募演员录制视频后,他们利用互联网上现有的deepfake技术进行伪造。由此产生的视频数据可以帮助防伪技术的开发者更好地学习deepfake的算法和逻辑。今年,谷歌还在欧洲开始了大规模的宣传活动,以付费广告反击谣言,识别虚假信息。
Google深度造假数据库
●去年,微软推出了一款名为“Video Aunthenticator”的工具,可以实时逐帧分析画面中的渲染边界和灰度,然后生成一个可靠性指数,帮助用户识别内容的真实性。
Microsoft视频身份验证器
● Meta此前推出了类似谷歌的开源数据库,并联合微软、麻省理工、牛津、加州大学伯克利分校等高校发起挑战,提供1000万美元奖金,鼓励更多检测虚假信息和深度伪造技术的创新。
● Twitter会屏蔽频繁发布deepfake和虚假信息的账号,还会对可疑内容进行标记,当用户转发此类内容时,还会“你确定要转发吗?”问题。
Twitter操纵的媒体
●抖音最新的社区规范规定,必须明确指出使用真实场景合成的内容,这意味着所有通过生成合成AI创建的内容必须在标题或标签中使用“合成”、“虚假”等词语。
虽然科技巨头们在技术和防范方面都在努力,但虚假伪造信息似乎并没有减少。
打击虚假伪造信息难的原因有很多。比如,首先要准确定义什么是虚假信息,这是很多平台做不到的,因为虚假信息不是每个场景都能简单识别的,当虚假信息以多种语言在全球传播的时候就更难了。
同时,很多情况下,信息本身并不是谎言,也不是伪造的内容,发布者和传播者只是用随机选择来误导网民,这一点与虚假信息尤其难以区分。
此外,对于社交媒体等平台来说,打击虚假信息从来都不是他们商业目标的重中之重。当某样东西只是为了达标却不能带来利润的时候,显而易见,微薄的动力让打假的步伐变得异常缓慢。
正因为如此,很多人把目光和希望放在了一群正在集中全部精力开发和识别虚假信息技术的初创企业身上。
资本流向打假初创企业
投资人的资本也带着大众的迫切希望涌向了这些创业公司。在过去的几年里,已经有数亿美元投入到这个领域。
虚假信息和错误信息缓解工具
在硅谷加速器Nex Cubed中孵化的黑鸟(Blackbird)开发了一套成熟的假货识别技术,并因其在新冠肺炎打破谣言的出色表现而闻名。其专利算法技术可以通过实时分析数亿个数据点,找出虚假信息的来源和传播者。
这项技术使用五种“风险信号”来识别虚假信息,包括“叙述语气”——分析信息和对话背景;“社交网络”——分析用户与分享内容的关系;“族群”——分析兴趣相近的用户是否聚集加剧信息共享的程度;“操纵”——分析信息的合理使用;以及“欺骗”——传统意义上的真假分析。
黑鸟星座仪表盘
黑鸟今年还推出了一款名为RAV3 N Copilot的AI助手。通过使用生成式AI产生叙事情报和风险报告,为虚假信息安全风险提供更多背景分析,从而帮助安全部门进行更高效和自动化的监控和分析。
目前黑鸟总融资1000万美元,服务涉及品牌、金融、企业和公共部门等。其客户包括美国国防部和几家财富500强公司。
背景分析在识别虚假信息时非常重要,因为信息在不同场景下的使用可能会导致真假天壤之别。以人工智能和NLP防伪技术闻名的旧金山公司Primer最近收购了后台智能技术公司Yonder。
Primer的神经网络技术可以快速扫描大量文本,根据词的频率和焦点提取主题,快速识别可疑信息,从而可以即时分析全球事件,识别大规模的虚假信息宣传,反击网络安全攻击。其NLP模型,结合Yonder的后台叙事智能分析能力,让用户甚至可以预防性地监控即将到来的虚假信息,快速识别谣言背后的造谣者,分析潜在的风险等级,并向被虚假信息伤害的品牌和手机系统提供建议,以降低伤害程度。
Primer目前已完成1.68亿美元融资,最大一笔投资包括来自Lux Capital的4000万美元B轮投资和来自Addition的1.1亿美元C轮投资。
ActiveFence在纽约和特拉维夫都有团队,也是获得该赛道融资最多的公司之一,总融资1亿美元,包括Grove Ventures和Norwest Venture Partners的A轮,以及CRV和高地欧洲的B轮。
ActiveFence的技术利用NLP搜索整个网络上正在进行的对话,甚至是网络最深处的角落,然后通过对“不良种子”信息的预测进行风险分析,这意味着它可以预测一个看似无害的对话是否会被谣言恶意利用,导致深远的恶性影响。这种预见对于防止虚假信息尤为重要。ActiveFence的主要客户包括社交媒体、音视频流媒体、文件分享平台和游戏平台,用户总数达到10亿+。
DeepMedia可以说是一家提供“双管齐下”业务的公司。起初,它的主要业务是开发DubSync,这是一种可以通过翻译、语音合成和配音让用户看起来会说多种语言的工具。在该服务被成功接受之后,已经研究了如何监控合成音频和视频的技术。其监控工具的训练方法是用自己的合成工具不断生成deepfake,然后测试监控系统是否能检测到。
创始人古普塔表示,现有的大型数据库如DeeperForensics和FaceForensics在合成上往往有很强的偏向性,因此训练出来的技术在监控上也有盲点,而DeepMedia的竞争优势在于其使用的deepfake数据库质量更高,也更能代表网络上现有的deepfake内容。
这个AI监控工具在预处理和形式化分析方面非常强大。比如,它要验证一个视频中的汤姆是否真实,模型需要提取并分析视频中人物的面部特征,然后从背景声音中提取人物的真实声音。然后这些信息会在一系列分类器中进行测试,最后整个内容会被卷积神经网络刷一遍,看是否使用了生成deepfake的算法。
深度媒体检测
DeepMedia也开始使用基于视觉的图像分类模型,谷歌用它来提取搜索结果。该模型比传统的卷积神经网络训练快10倍。DeepMedia的这项监测业务已经和美国空陆军旗下的实验室达成合作,目前准确率已经达到95%,将会在市场上公开发布99%。
▼
无论是大厂还是初创企业,他们对于防伪技术的研发努力都是至关重要的。
未来5到10年,AI技术的发展会更快,这意味着在“说谎”这件事上,AI会更聪明,仅仅依靠网民的人工识别肯定是不够的。
deepfake track的很多创始人呼吁政府的参与也是非常重要的,比如对虚假信息的定义和干预设立跨境法规,比如为这类危机的教育和研究拨款。
如果把AI分为善恶,那么接下来的几年在虚假信息方面可以说是AI自身善恶的赛跑。虽然技术不是唯一的答案,但我希望我们齐心协力的打假行动能为我们赢得一些时间。
参考来源:
人工智能正在吞噬自己:必应的人工智能引用了来自ChatGPT (Techcrunch)的COVID disinfo
认识人工智能驱动的初创公司捕捉假新闻(Wired)
这不是谎言:对抗虚假信息的创业公司正在大把大把地赚钱
认识一下与空军合作检测deepfakes(DeepMedia)的公司
温馨提示:注:内容来源均采集于互联网,不要轻信任何,后果自负,本站不承担任何责任。若本站收录的信息无意侵犯了贵司版权,请给我们来信,我们会及时处理和回复。
原文地址"谎言制造机bbc会怎么说,谎言制造机bbc":http://www.ljycsb.cn/qukuailian/221362.html。

微信扫描二维码投放广告
▲长按图片识别二维码