大模型将创造性提升产业效率!百度吴甜谈大模型赋能实体经济

文章来源:快科技 发布日期:2023-11-08 分类:快科技 阅读(0)

11月5日,第六届中国国际进口博览会暨虹桥国际经济论坛在上海开幕。“智能科技与未来产业发展”分论坛汇聚了来自人工智能、信息技术领域的中外知名专家学者、跨国公司企业高层交流探讨。在论坛圆桌环节,百度集团副总裁、深度学习技术及应用国家工程研究中心副主任吴甜分享了大模型技术特点、如何为实体经济服务以及产业生态的话题。她表示,大模型的产业模式是在基础通用大模型之上结合场景进行广泛应用创新,建设面向未来的产业生态链。

[MD:Title]

今年以来,大模型技术受到前所未有的公众关注,大语言模型展现出类似于人的智力表现、非常强的通用能力,带来更广泛的应用想象空间。吴甜介绍到,百度从2019年开始大模型技术的研发,推出文心大模型1.0版本,目前已升级到文心4.0,在理解、生成、逻辑、记忆四大核心能力上显著提升。今年3月16日上线“文心一言”。文心一言从数万亿数据和数千亿知识中融合学习,训练出优秀的基础模型,采用有监督精调、人类反馈强化学习、提示等技术进一步优化,还具备知识增强、检索增强和对话增强的特色技术优势。

谈及大模型如何赋能实体经济,吴甜表示,大模型的产业化模式是在基础通用大模型之上结合行业领域特有的数据、知识和专家经验,既具有基础模型的能力,又具有行业领域的专有能力。

吴甜进一步表示,大模型与实体经济的结合,能利用各方面更强的能力,深入到整个系统流程中,未来能够基于大模型在行业应用中形成“智能体”,将给各行业带来极大的效率提升,进而带来很多的创造性,想象空间会非常大,这是未来很重要的发展方向。

AI大模型已经成为世界大国科技创新的竞争高地。我国大模型实现可持续良性发展的关键在于大模型产业生态能否做大做强。谈及产业生态,吴甜认为目前整个产业还处于非常初期的阶段,亟需构建面向未来的产业链条。

以百度的工作为例,自2010年起,百度全面布局人工智能,是全球为数不多进行全栈布局的人工智能公司。从昆仑芯片、飞桨深度学习平台、文心大模型到广泛应用层,百度形成了四层AI技术架构布局,实现了层与层反馈,端到端优化,大幅提升效率。特别是框架层和模型层之间,有很强的协同效用,可以构建更高效的模型,显著降低成本。

AI产业生态链最底层是硬件,硬件性能发挥的关键点之一是软件栈,基础软硬件平台的打造是整个生态的基础。百度自研的飞桨深度学习平台,上承模型应用、下接硬件芯片,目前已携手十多家国产硬件厂商适配文心大模型。最新版本文心大模型4.0的模型周均训练有效率超过98%,相比于三月份,训练算法效率提升至3.6倍,推理性能提升至50倍。

产业生态应用层的空间更大。吴甜表示,在基础通用大模型之上,结合行业特有的数据、知识和专家经验,进行优化训练,形成行业垂直领域模型,可以在行业中探索更丰富的应用。

据了解,国际权威咨询机构IDC发布的《AI大模型技术能力评估报告,2023》显示,百度文心大模型拿下7项指标满分,并在行业覆盖、算法模型、综合评分等维度拿下“三个绝对第一”。报告指出,百度文心大模型在能源、金融、教育、医疗等领域已经实现广泛业务布局和落地场景探索。

 

【本文结束】如需转载请务必注明出处:快科技

责任编辑:

最新文章:

二维码