您好,欢迎您来到林间号!
官网首页 小额贷款 购车贷款 购房贷款 抵押贷款 贷款平台 贷款知识 手机租机

林间号 > 区块链 > 通用人工智能 知乎,通用人工智能说法

通用人工智能 知乎,通用人工智能说法

区块链 岑岑 本站原创

作者:胡艺

资料来源:报纸。

图片来源:由** AI工具生成。

近日,微软雷蒙德研究院机器学习理论组负责人塞巴斯蒂安·布贝克(Sébastien Bubeck)和2023年斯隆研究奖得主李沅芷(Michael Bloomberg)发表了一篇备受关注的论文。这篇论文名为《通用人工智能的火花:GPT 4号的早期实验》,长达154页。有好事者从LaTex源代码中发现,原标题其实是《与AGI的初次接触》。

该论文的发表标志着人工智能研究领域的一个重要里程碑。它为我们提供了通用人工智能(AGI)的发展和应用的宝贵见解。同时,论文的原标题《与AGI的第一次接触》也凸显了对通用人工智能探索的重要性和前瞻性。

我耐心地阅读了这篇论文的翻译版本。讲真,一半懂一半不懂。首先我来介绍一下这篇论文的核心思想:GPT-4呈现了一种通用智能的形式,绽放了通用人工智能的火花。这表现在它的核心心智能力(如推理、创造、推理),它的专业知识的学科范围(如文学、医学、编码),它能完成的各种任务(如玩游戏、使用工具、解释自身等)。).

看完这篇文章,我重温了我的散文《未来可期|人工智能绘画:让每个人都成为艺术家》。我问了自己一个问题:把ChatGPT这样的大模型归为人工智能生成的内容(AIGC)是否有点狭隘?正如微软研究论文所说,GPT-4实际上不仅仅是AIGC,它更像是通用人工智能的原型。

在解释AGI的意思之前,我想告诉“可预期的未来”专栏的读者澎湃科技三个字ANI,AGI和ASI。

人工智能(AI)通常分为三个层次:

①人工狭义智能(ani);

②人工通用智能(agi);

③人工超级智能(ASI)。

接下来给大家简单介绍一下这三个层次的区别和发展。

①弱人工智能(ANI):

弱人工智能是最常见的人工智能形式。它专注于执行单一任务或解决特定领域的问题。比如图像识别、语音识别、机器翻译等。这种智能系统在特定任务中的表现可能比人类更好,但它们只能在有限的范围内工作,无法处理它们不是设计来解决的问题。目前,市场上有许多智能产品和服务,如虚拟助手(Siri,微软萧冰等。)、智能音箱(天猫精灵、小爱音箱等。)和AlphaGo等。,都属于弱人工智能的范畴。弱人工智能的局限性在于缺乏全面的理解和判断能力,只能在特定的任务中表现良好。

随着大数据、算法和计算能力的不断发展,弱人工智能正逐渐渗透到我们日常生活的各个领域。在金融、医疗、教育、娱乐等领域,我们见证了很多成功的应用案例。

②通用人工智能(AGI):

通用人工智能又称强人工智能,是指具有与人类相同的智能,能够表现出正常人类所具有的全部智能行为的人工智能。这意味着AGI可以像人类一样学习、理解、适应和解决各个领域的问题。与ANI不同,AGI可以独立完成多种任务,而不仅仅是在某个特定领域。目前普遍认为人工通用智能还没有实现,但是很多科技公司和科学家都在努力接近这个目标。

③超级人工智能(ASI):

超级人工智能是指在各个领域远远超过人类智能的人工智能系统。它不仅能完成人类能完成的各种任务,而且在创造力、决策能力、学习速度等方面都远超人类。ASI的出现可能会引发很多前所未有的科技突破和社会变革,解决人类无法解决的问题。

然而,ASI也带来了一系列潜在的风险。比如可能导致人类价值和尊严的丧失,人工智能的滥用和误用,甚至人工智能的反叛。

原来我们一直认为人工智能技术,从弱人工智能到一般人工智能再到超级人工智能,会经历一个漫长而复杂的发展过程。在这个过程中,我们有足够的时间做好各种准备,从法律法规到个人心理准备。然而,最近我有一种强烈的感觉,我们距离拥有普遍的人工智能可能只有几步之遥,这可能只需要20年甚至更短的时间。如果有人说这个过程只需要5-10年,我不完全排除这种可能。

OpenAI在其《对AGI的规划与展望》中提到:“AGI可能会给每个人带来不可思议的新能力。我们可以想象一个世界,我们所有人都可以从几乎任何认知任务中获得帮助,并为人类的智慧和创造力提供巨大的力量倍增器。”

然而,这一计划强调一个“逐步过渡”的过程,而不是过分强调AGI的强大能力。“让人们、政策制定者和机构有时间了解正在发生的事情,体验这些体系的利弊,调整我们的经济,并实施监管。”

在我看来,这段话传达的潜在信息是,通向AGI的技术实际上是可用的。但是,为了让人类社会有一个适应的过程,OpenAI在故意拖慢技术的进步。他们打算平衡技术进步和人类社会的准备程度,给更多的时间来讨论法律、伦理和社会适应,并采取必要的措施来应对可能的挑战。

《论语》《季氏勇士》里有一句话:“虎出枷锁”。现在,各种各样的GPT,像老虎一样,从笼子里逃出来了。正如《未来简史》的作者尤瓦尔·哈拉里所说:人工智能是以一种超越人类平均水平的能力来掌握语言。通过掌握语言,人工智能拥有了大规模与数亿人发生亲密关系的能力,并且正在掌握入侵人类文明体系的钥匙。他进一步警告说,核武器和人工智能的最大区别在于,核武器无法制造出更强大的核武器。但是人工智能可以产生更强大的人工智能,所以我们需要在人工智能失控之前迅速采取行动。

3月22日,生命的未来向全社会发布了一份* * *名为《暂停巨型人工智能的研究:一份* * *》,呼吁所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练,至少暂停6个月。未来生命研究所美国政策主任兰登·克莱恩说:“我们认为这一时刻类似于核时代的开始……”这个* * *获得了超过1000人的支持,包括埃隆·马斯克(特斯拉创始人)、萨姆·奥特曼(OpenAI首席执行官)、约书亚·本吉奥(2018年图灵奖获得者)等名人。

如果很多人意识到我们即将进入一个“人工智能核武器扩散”的时代,那么我们真的需要探索一种可能性。这种可能性是建立一个类似国际原子能机构的国际组织,其目标是根据所有人工智能公司使用的GPU数量、能耗等指标对其进行监管。那些超过能力阈值的系统需要被审计。通过这样一个国际组织,我们可以共同努力,确保人工智能技术为人类带来好处,而不是潜在的危害。

一些科学家认为,在推动人工智能的研究和应用时,我们必须避免人工智能系统的能力超出人类的控制。他们做了许多比喻来描述正在发生的灾难,包括“一个10岁的孩子试图与Stockfish 15下棋”,“11世纪试图与21世纪作战”,“南方古猿试图与智人作战”。这些科学家希望我们不要把通用人工智能想成“一个活在互联网上没有生命的思考者”。而是把他们想象成一个完整的外星文明,思维速度比人类快上百万倍。然而,它们最初仅限于计算机。

然而,一些科学家持乐观态度。在他们看来,应该不断推动人工智能的发展和研究,促进科学进步和技术创新。他们比喻说,在汽车诞生的时代,如果一个马车夫建议司机停止驾驶六个月。现在回想起来,这是角斗士的行为吗?他们认为,通过透明和负责任的研究方法,可以解决潜在的问题,确保人工智能技术的可控性。而且,正是通过不断的实验和实践,我们才能更好地理解和应对人工智能可能带来的挑战。

最近,世界卫生组织(世卫组织)就人工智能和公共医疗保健的结合发出了警告。他们指出,依赖人工智能生成的数据进行决策可能会有偏差或被误用。世卫组织在一份声明中表示,评估使用ChatGPT等生成性大型语言模型(LLM)来保护和促进人类福利的风险非常重要。他们强调,需要采取措施确保这些技术使用的准确性、可靠性和公平性,以保护公共利益和促进医疗领域的进步。

很多国家已经开始采取措施,迈出了规范人工智能领域的第一步。3月31日,意大利个人数据保护局宣布暂时禁止使用ChatGPT。与此同时,欧盟官员也在制定一项名为AI Act的新法律草案,其中包括禁止使用某些AI服务,并制定相关法律规范。

美国商务部发布公告征求公众意见,内容包括:存在危害风险的新型人工智能模型是否需要审查后才能发布。同时,商务部还承诺打击侵犯公民权利和消费者保护的有害人工智能产品。

5月16日,OpenAI首席执行官兼联合创始人山姆·奥特曼(Sam Altman)首次出席了美国国会的听证会,并就人工智能技术的潜在危险发表了演讲。他承认,随着人工智能的进步,人们对它将如何改变我们的生活方式感到担忧和焦虑。为此,他认为政府干预可以防止人工智能“疯狂的自我* *和自我渗透”。他提出建立一个全新的监管机构,实施必要的保障措施,为人工智能系统发放许可证,并拥有吊销许可证的权力。

听证会上,奥特曼被问及他对人工智能最大的担忧可能是什么。他没有细说,只是说“如果这项技术出了问题,可能是一个大错误”,可能“对世界造成巨大伤害”。

在本次听证会之前,中国在人工智能领域的监管措施也引起了广泛关注。4月11日,为促进生成式人工智能技术的健康发展和规范应用,根据《中华人民共和国网络安全法》等法律法规,国家网信办起草了《生成式人工智能服务管理办法(征求意见稿)》。该办法明确了对生成式人工智能产业的支持和鼓励态度。比如,“国家支持人工智能算法、框架等基础技术的自主创新、推广应用和国际合作,鼓励优先使用安全可靠的软件、工具、计算和数据资源。”

意见稿要求,生成式人工智能生成的内容应当体现社会主义核心价值观,不得含有颠覆国家政权、推翻社会主义制度、煽动分裂、破坏民族团结、宣扬恐怖主义和极端主义、宣扬民族仇恨、民族歧视、暴力、淫秽色情信息、虚假信息以及可能扰乱经济社会秩序的内容。同时,意见稿要求供应商申报安全评估,采取措施防止歧视,尊重隐私权。

这些国家共同采取的措施提醒我们,当前人工智能的发展带来了巨大的机遇和挑战。我们迫切需要制定明确的道德标准和法规,以确保人工智能技术的正确使用和透明度。我们将面临一系列重要问题:如何保证数据隐私和安全?如何处理算法的偏颇和不公?如何保证人工智能决策的透明性和可解释性?这些问题都需要通过明确的法律法规来回答。

写到这里,我的思绪不知怎么就跳到了最近火了一把的国产剧《漫长的季节》,还有那首题为《漫长的季节》的诗的第一段:

打响指,他说

让我们打响指共鸣。

遥远的东西会被粉碎。

前面的人还不知道。

在这里,我想做一个大胆的预测:当2024年来临时,当我们评判2023年的词汇时,ChatGPT将会是十大热词之一,甚至可能成为年度词汇或者年度人物。

我们来拆解一下“AI”这个词。如果a代表天使,那么我可以代表魔鬼。如今人工智能技术飞速发展,呈现出“天使与魔鬼”惊人的共生关系。面对这一现实,我们需要为了一个目标而行动——“让我们享受一个人工智能金色而漫长的收获之秋,而不是毫无准备地陷入寒冬。”

(作者胡艺是一位喜欢思考未来的大数据工作者。)

本网站声明:网站内容来源于网络。如有侵权,请联系我们,我们会及时处理。

温馨提示:注:内容来源均采集于互联网,不要轻信任何,后果自负,本站不承担任何责任。若本站收录的信息无意侵犯了贵司版权,请给我们来信,我们会及时处理和回复。

原文地址"通用人工智能 知乎,通用人工智能说法":http://www.ljycsb.cn/qukuailian/216581.html

微信扫描二维码投放广告
▲长按图片识别二维码