来源:深目财经,作者|张伟
图片来源:由** AI工具生成。
AI大模型的战场正在划分。
Chatgpt作为导火索,开启了AI2.0时代的大门,ai 2.0以“工业智能化、数字化”为特征,可以有效替代人工,广泛应用于各行各业。所以相对于还在探索,已经过了高峰期的元宇宙,AI大模型的落地更现实。
最典型的表现就是AI大模型的圈子更广,不止步于B端。比如,即使chatGPT已经发布半年多了,笔者在上海CBD楼下的咖啡厅里,依然能听到农民工谈论chatGPT的声音。据媒体报道,一些企业也使用AIGC作为生产力工具。
正如阿里巴巴集团董事局主席兼首席执行官、阿里云智能事业群CEO张勇所说:面对AI时代,所有的产品都值得用一个大模型重做。
大厂、科研机构、企业家都走到了尽头。
有百度文新伊彦、华为盘古、360智脑、商汤日日新、阿里通易乾文、JD.COM林夕、昆仑万伟天宫等大佬登场,还有腾讯混元、科大讯飞霍星。
也有很多著名的企业家,如搜狗创始人王小川,美团联合创始人王会文,创新工场董事长李开复,他们高调进入ai模式。
持续了几个多月的AI大模型热,兴起了两条路。
AI军备竞赛,大模式分化
AI大模式进入竞争阶段,路径逐渐分化。
随着AI大模型的逐渐升温,有媒体统计。2月初,东方财富“ChatGPT”板块只有29只股票,现在已经达到61只,而且数量还在上升。据不完全统计,截至目前,国内已有40多家公司和机构发布了大模型产品或公布了大模型计划。
其中,参与AI大模型“军备竞赛”的玩家也发展出了两个发展方向。垂直大模型和通用大模型正在成为人工智能领域的两个主要发展方向。
垂直megamodel是对特定领域或任务进行优化设计的模型,如语音识别、自然语言处理、图像分类等。
目前,越来越多的企业正在加入垂直大模式的轨道。学而思宣布正在开发自主研发的数学模型,命名为MathGPT,面向全球数学爱好者和科研机构;5月6日,淘云科技宣布推出儿童认知模型——阿尔法蛋儿童认知模型,为儿童在练习表达、塑造情商、发起创造、助力学习等方面带来全新的交互体验。
通用大模型是指能够处理多种任务和领域的模型,如伯特和GPT。
由于资金和人才优势,大厂主要瞄准通用模式的轨道。
一方面,大厂瞄准的是通用大模型,可以把AI的能力和自己的产品结合起来。比较有代表性的是阿里、华为、百度等互联网巨头和科技巨头。
例如,继微软将GPT-4整合到Office family bucket之后,阿里的“依桐钱文”也开始接入钉钉。用户可以在文档中生成内容,在视频会议中生成每个人的观点和内容。
比如百度的大模式也可以和自己的业务结合。“文易欣言”在搜索引擎的迭代中可以发生质的转化,可以从搜索用户的答案转化为回答用户的问题,包括腾讯的“浑源”、网易的“御言”、京东等。COM的“ChatJD”,可以优先应用于自己的行业。
另一方面,通用模式具有广泛的适用性,先行者可以建立先发优势,成为AI2.0时代的领跑者。毕竟大家都知道“跑得快的有肉吃,跑得慢的只能吃剩下的残羹剩饭”。
大型模型的垂直应用可谓是一股“清流”。由于垂直应用的大模型更符合垂直场景的需求,质量也高于一般的大模型,所以很多企业也看到了其中的机会。比如深蓝、Mobvoi、有道等专注于特定AI赛道的公司。
垂直大规模模型的发展主要体现在各个领域模型性能的不断提升,比如语音识别的错误率不断降低,自然语言处理的语义理解能力不断提升。通用大模型在多任务学习和迁移学习方面取得了显著进展,成为自然语言处理领域的重要研究方向。
例如,生物模型可以提高人工智能药房的效率。国外研究报告显示,ai可提高新药研发成功率16.7%,ai辅助药物研发每年可节省540亿美元研发费用,在研发主要环节可节省40%至60%。根据英伟达的公开资料,使用ai技术可以将早期药物发现所需的时间缩短到三分之一,成本节省到百分之百。
从产业的角度来看,通用模型是一部百科全书,可以回答问题,适用于不同的产业土壤,而垂直模型则类似于单个领域的专家。虽然专业,但受众注定是少数。
数据是致命的
垂直大模型的优势在于不“大”:计算能力不够大,算法难度大。
进入大模型赛道后,王小川一直强调,未来努力的方向不是把AGI(通用人工智能)做成OpenAI那样,而是在一些特定领域垂直做大模型,实现落地应用。
广义的大模型其实描述的是一般的大模型。正如“大”模型的叫法,大模型之所以“大”,是因为参数多,数据庞大,对算法、计算能力、数据存储空都有很大的要求,不仅靠人才来补偿,还需要大量的资金。要知道,Open AI的成功也是微软用几十亿美金堆出来的。巨大的资金需求也是对大制造商R&D决心的考验。
五年来,AI大模型的参数几乎每年都有一个数量级的增长。比如GPT-4的参数是GPT-3的16倍,达到1.6万亿;随着图像、音频、视频等多模态数据的引入,大型模型的数据量也在迅速膨胀。这意味着如果你想玩大模型,你必须有强大的计算能力。
相对于大厂,做垂直大模型的公司缺乏资金、计算能力和数据,所以和一般的大模型玩家其实不在一个起跑线上。
就像新能源汽车离不开电机、电池和电控一样,AI模型也离不开计算能力、算法和数据的支持。
在算力、算法和数据上,数据是垂直大模型的难点。
在这三个要素中,算法的研发难度相对较大。目前各公司都有自己的路径算法来实现大模型,也有很多开源项目可供参考。
芯片决定计算能力,AI模型整体需要高性能芯片来完成整个模型神经网络的训练和构建。但目前的芯片自主研发较少,主要靠进口。比如目前最适合ChatGPT的芯片就来自英伟达的旗舰芯片H100和次旗舰芯片A100。
难点在于数据。高质量的数据是帮助AI训练和优化的关键,足够丰富的数据是生成式AI模型的基础。
据OpenAI此前披露,仅ChatGPT3参数数量就达到了1750亿,训练资料达到了45TB。
由于cmnet发展成熟,大量中文数据资源存储在各个企业或机构,难以共享。
“因为企业的很多业务数据、物流数据、财务数据都是非常核心的私有领域数据,很难想象华星光电或者中石油会拿这些数据给别人做培训。”创新奇智CEO徐辉近日接受证券时报采访时也直言不讳。
以AI制药行业为例,生物模型面临着被技术“卡脖子”的问题。药物研发需要高精度的实验数据,而公共数据库中存在大量的未标记数据,既要利用好大量的未标记数据,又要利用好少量的高精度数据,因此对模型构建提出了更高的要求。
谁先赚到了第一桶金?
无论什么模式,商业化都是核心问题。从目前拥有大模型的AI玩家来看,他们正在快速推进赋能和商业化。
虽然通用模式和垂直模式走的是不同的道路,但本质上还是“一家人”,在同一条轨道上,竞争的问题无法回避。
一般的大型号,垂直大型号会先落地,一般大型号的路会窄一些。同样,一般的大模式快速抢占市场后,业务线狭窄的垂直大模式赚钱难度更大。
在理想阶段,无论是经济模式还是普世价值,通用大模式都优于垂直大模式。但是,现实生活并不是乌托邦,通用模式和垂直模式谁跑得更快,取决于企业之间的竞争。
从去年炎热的AIGC来看。相比于在门槛较低的C端让用户使用AI生成内容,B端被一些市场人士认为是AIGC更重要的商业模式。
华为也更加重视其ToB业务。在发布会上,华为表示,华为的盘古模型主要应用于AI赋能的行业,在电力、金融、农业等多个行业都有应用。其中CV模型落地矿山,NLP模型落地智能文献检索。
比如作为搜索引擎主管的百度,就推出了类似GPT-3这样带有搜索属性的词。
除了ChatGPT,其实还有AI大模型阵风吹起来之前落地的一幕。这些“大”模型其实主要是垂直大模型。
语言模型,如GPT和伯特,主要用于自然语言处理领域,如机器翻译,文本生成和情感分析。图像模型,如ResNet和Inception,主要用于计算机视觉领域,如图像分类、目标检测和图像分割。推荐车型:如DNN、RNN等。主要用于推荐系统领域,如产品推荐和广告推荐。聊天机器人:如Seq2Seq、Transformer等。,主要应用于智能客服、智能助手等场景。财务风险控制:如XGBoost、LightGBM等。,主要应用于银行、证券等金融机构的风险控制场景,如信用评分、反欺诈等。医学影像诊断:如DeepLung和DeepLesion,主要用于医学影像诊断领域,如肺癌诊断和病理分析。
赚钱比土地更重要。
根据郭盛证券的《ChatGPT需要多大的计算能力》报告,GPT-3的训练成本约为140万美元,对于一些较大的LLM(大型语言模型),训练成本在200万美元到1200万美元之间。以chat GPT 1月平均独立访客数1300万计算,其对应的芯片需求为3万多NVIDIA A100 GPU,前期投入成本约8亿美元,每天电费约5万美元。
毫无疑问,一般的大模型在落地场景中应用更广泛。对于有信心使用大模式的玩家来说,商业化是其次,垂直大模式需要更快的商业化,所以垂直大模式的落地可能性更高,普及速度更快。
谁能先形成绝对优势,没有确定的答案。这场AI大模型的“军备竞赛”就像是从web1到web2的蝶变。企业争分夺秒向前发展。谁先抓住了机会,谁就抓住了市场。
本网站声明:网站内容来源于网络。如有侵权,请联系我们,我们会及时处理。
温馨提示:注:内容来源均采集于互联网,不要轻信任何,后果自负,本站不承担任何责任。若本站收录的信息无意侵犯了贵司版权,请给我们来信,我们会及时处理和回复。
原文地址"通用VS垂直,大模型走近第一个赛点":http://www.ljycsb.cn/qukuailian/219251.html。

微信扫描二维码投放广告
▲长按图片识别二维码