您好,欢迎您来到林间号!
官网首页 小额贷款 购车贷款 购房贷款 抵押贷款 贷款平台 贷款知识 手机租机

林间号 > 区块链 > 人类制造生物,人类生物机器人

人类制造生物,人类生物机器人

区块链 岑岑 本站原创

原文:金融时报

像ChatGPT这样的大语言模型就是理性的提供者。很多聊天机器人都是基于所谓的生成式人工智能。经过训练,他们可以通过在网上搜索相关信息,收集连贯的答案来回答用户的问题,从而生成令人信服的学生论文、权威的法律文件和可信的新闻报道。

但是,一些机器生成的文本可能是不准确或不真实的,因为公开的数据包含虚假信息和错误信息。这导致人们争相开发工具来识别文本是由人还是机器起草的。科学也在努力适应这个新时代,讨论是否应该允许聊天机器人写科学论文,甚至产生新的假说。

区分人工智能和人类智能越来越重要。本月,瑞银(UBS)分析师透露,ChatGPT是有史以来增长最快的web应用,1月份的月活跃用户数为1亿。一些部门已经决定,没有必要锁上稳定的大门:周一,国际文凭组织表示,将允许学生使用ChatGPT写论文,前提是他们明确引用。

平心而论,这项技术的创造者坦率地指出了它的局限性。OpenAI的首席执行官萨姆·奥尔特曼(Sam Altman)去年12月警告说,ChatGPT“在某些方面足够好,足以给人一种巨大的误导印象”。在健壮性和真实性方面,我们还有很多工作要做。该公司正在为其内容输出开发一种加密水印,这是一种机器可读的秘密标点符号、拼写和词序序列;一个“分类器”正在被磨练,以区分合成文本和人工生成的文本,并通过使用两者的例子来训练它。

斯坦福大学研究生Eric Mitchell认为分类器需要大量的训练数据。他和他的同事一起提出了DetectGPT,这是一种寻找差异的“零样本”方法,这意味着这种方法不需要事先研究。反之,当事人* *则自行启动聊天机器人嗅出其输出。

它是这样工作的:DetectGPT询问聊天机器人对样本文本的喜欢程度,“喜欢”是样本与自己创作的相似程度的简写。DetectGPT则更进了一步——它“打乱”了文本,并稍微改变了措辞。假设聊天机器人在“喜欢”改变的人工生成的文本方面比改变的机器文本更易变。研究人员声称,在早期的测试中,这种方法在95%的情况下都能正确区分人类和机器作者。

应该注意的是,这些结果没有经过同行评审;虽然这种方法比随机猜测要好,但它的工作可靠性在所有的生成式AI模型中并不相同。手动调整合成文本可能会欺骗DetectGPT。

所有这些对科学来说意味着什么?科学出版是研究的生命线,为全球科学经典注入思想、假设、论据和证据。很快就有人用ChatGPT做研究助手,一些有争议的论文把AI列为合著者。

Meta甚至推出了名为Galactica的科学文本生成器。三天后就撤了。在使用期间,构建了一个熊在Tai 空旅行的虚构历史。

图宾根马克斯·普朗克智能系统研究所的迈克尔·布莱克(michael black)教授在推特上表示,他对Galactica对自己研究领域许多问题的回答感到“困扰”,包括指责真正的研究人员发表虚假论文。“在所有情况下,[卡拉狄加]都是错误的或有偏见的,但听起来是正确的和权威的。我认为这非常危险。”

危险来自于看似合理的文本滑向真正的科学投稿,虚假的引用充斥文献,永远扭曲经典。科学杂志现在完全禁止文字生成;自然允许使用,前提是声明用途,但禁止列为合著者。

话又说回来,大部分人都不会去查阅高端期刊来指导自己的科学思维。如果狡猾的人如此倾向,这些聊天机器人可以根据需要吐出很多伪科学来解释为什么疫苗不起作用,或者为什么全球变暖是一个骗局。网上发布的误导性材料可能会被未来的生成式人工智能吞噬,产生新的谎言迭代,进一步污染公共话语。

卖猜疑的商人,必须做好准备,不能等。

温馨提示:注:内容来源均采集于互联网,不要轻信任何,后果自负,本站不承担任何责任。若本站收录的信息无意侵犯了贵司版权,请给我们来信,我们会及时处理和回复。

原文地址"人类制造生物,人类生物机器人":http://www.ljycsb.cn/qukuailian/246398.html

微信扫描二维码投放广告
▲长按图片识别二维码