川观新闻记者 唐泽文 文/视频
·模型参数不是越大越好,而是越精越好
·底层技术和应用上形成闭环是关键
7月25日,火山引擎2024“AI创新巡展”首站落地成都。
活动上火山引擎发布了豆包大模型调用的最新数据——平均每家企业客户日均使用量较2个月前模型发布时,增长了22倍。
近段时间,国内不少业内大咖都在表达同一观点:于国内企业而言,应该把更多的关注集中在应用层,而非大模型底层。
“我也同意这个观点。”火山引擎副总裁张鑫说,当下火山引擎的聚焦点,除了让豆包模型更强外,更关注如何让它更易落地、更好使用。
国产大模型现在处于一个什么水平?当下,我们能用它来实际干什么?四川在该领域有哪些优势短板?
川观新闻记者对张鑫进行了专访。

记者:国产大模型的发展和国外主流大模型相比,有多大差距?
张鑫:单从语言类模型看,差距较小。如在很多评测中,豆包基本达到GPT4水平。
但在多模态方面,如视频上,和国外Sora相比,国产模型还有一定追赶空间。
应用侧看,我们是有优势的。
国内用户体量大,应用场景广泛,呈现出百花齐放的多元态势。
我自己也同意国内应该“卷”应用这个观点。制造业、教育、医疗等,我们都有丰富人工智能应用基础,这些是能“卷”起来的底气。
参数规模并不是越大越好,对产业而言是越精准越好。
我的观点是应该针对具体应用场景,把不同尺寸、不同类别模型结合起来用,以达到最适配,成本也更低。当下看,一个通用模型解决全部问题还不太现实。
记者:大模型的成长到底是一个怎样的过程?很多人不太懂,能不能用易懂的方式解释?
张鑫:第一阶段是预训练,有点像“填鸭式”教育。让大模型“记住”“背诵”很多知识,但它也不知道这些知识到底意味着什么,该怎么用。
第二阶段是优化调整。有点像给大模型做各种“高考真题”,让它知道这些知识应该怎么具体应用起来。
第三阶段是精调。把具体行业知识融进大模型“脑子里”,让各类知识“稳固”下来,它就能到具体行业中去执行任务。
记者:现在大模型成长到了什么阶段?一些用户在具体使用过程中,感觉大模型还是有不少“不靠谱”的时候。
张鑫:我想这种“不靠谱”源自大模型的“幻觉”现象。首先大模型和搜索引擎之前的核心区别,就是“创造力”。
但当下技术水平看,这种“创造力”不太稳定,不够精准。
所以现在大模型主流应用,很多还是围绕娱乐场景。陪人聊聊天没问题。要做精准化“严肃”工作,还需更多工程化的解决方案。
这样说吧,现在的大模型更擅长“定性”地给出相对笼统的答案。但要“定量”给出严肃且精准的答案,还需要利用RAG(检索增强生成)和SFT(有监督精调)等技术进行不断优化。
现在它更多是“辅助”角色——用它的“创造力”给大家提供一些或许没想到的思路和视角。并不能真正成为一个“代理人”。
记者:这次巡展首站设在成都,为什么?
张鑫:四川历来是电子信息技术产业高地,在创新发展上是一片好土壤。行业应用方面也有国内先进方案落地,如华西医院智慧医疗系统。
这里人才优势也比较突出。我了解到的信息是,整个西南地区有20多家高校专门设立了人工智能专业。
四川还是为数不多拥有全部41个工业大类、31个制造业大类的省份,有丰富的应用场景。在这里落地标杆应用,对西南地区有很强的辐射效应。
记者:对四川该领域发展有什么建议?
张鑫:整个西南地区都有一个短板——缺乏领军型企业。“百模大战”已打响,但主战场在北京、上海。
如果四川能在底层技术和具体应用上形成完善的闭环,将会在整个行业中更显眼。
【未经授权,严禁转载!联系电话028-86968276】
