2457亿,全球最大巨量模型“源”发布:怎么用,挑战在哪儿?


2457亿,全球最大巨量模型“源”发布:怎么用,挑战在哪儿?

文章插图
图片来源@视觉中国
浪潮日前发布的巨量模型源1.0引起了业界专家的关注 。据说该模型参数规模达到了2457亿,训练采用的中文数据集达5000GB 。相比OpenAI 去年推出的GPT-3模型(1750亿参数量,570GB训练数据集),源1.0参数规模领先40%,训练数据集规模领先近10倍 。因此,浪潮源1.0也被称为全球最大规模的人工智能巨量模型 。
在源1.0发布当日,浪潮还同步举行了一个研讨会,来自国内自然语言理解领域的近20位专家、院士参加研讨,就巨量模型的应用前景与挑战都发表了个人看法 。
源1.0是什么?怎么用?
就像上文提到的,源1.0是用5000GB的中文数据集训练而来,所以源1.0本质上是一个偏向于中文语言的巨量模型,且其未来应用的突破点也主要会在NLP(自然语言处理)领域进行先期切入 。
在传统的人工智能语言模型训练中,由于计算资源等各种条件限制,业界的语言模型往往针对某个小场景,通用性不强 。而由于巨量模型采用的数据集够大、形成的参数规模也够大,最终模型的通用性也会比较高,是真正的“见多识广” 。
但由于巨量模型在前期训练的过程中需要消耗的计算资源太大,所以一般业界做这种尝试的并不多 。此前,全球已经推出千亿级巨量模型比较典型的是OpenAI 的GPT3模型,其参数模型达到了1750亿 。
据了解,源1.0参数量高达2457亿,训练采用的中文数据集达5000GB,相比GPT3 1750亿参数集、570GB训练数据,参数集规模提升了40%,训练数据规模提升近10倍 。
巨量模型训练出来了,有什么价值,亮点在哪儿?我们拿AI作诗举例 。
一般情况下,让人工智能写一首诗之前,首先要有一个学习了大量唐诗宋词的模型出来,人工智能才能自动填词 。但是由于这个小模型只学习过唐诗宋词的语料,如果撰写文章,这类模型则很难完成 。巨量模型就不同了,由于它提前学习的海量预料中包含了唐诗宋词、各种文体作文、甚至还是有明星八卦,所以无论问它什么,它好像都能从容作答 。
现场,浪潮人工智能研究院首席研究员吴韶华展示了它为源1.0的设置的指代、推理、理解等多方位的问题,比如完形填空,让AI在空白处填写正确的成语,它回答的都分毫不差 。吴韶华也说,除此之外,巨量模型在写300-500字的主题创作上,也能够顺利完成 。也就是说,有了巨量模型,在不久的将来,让成熟的文档自己写稿的日子或许真的指日可待了 。
挑战在哪儿?在过去4个月里,一群浪潮AI专家,把近5年互联网内容浓缩成2000亿词,让AI在16天内读完,终于炼成了“源1.0” 。源1.0的成果得到了在座专家的一致肯定 。不过对于源1.0的应用以及后续迭代上,大家也都毫不讳言 。其中,受到关注最多的问题是,源1.0这样的巨量模型怎么能够跟产业场景结合,怎么能够落地使用 。
在场景落地上,巨量模型首要挑战有两个,一是能不能找到杀手级应用;二是,巨量模型中包含的千亿参数怎么在低功耗的情况下落地 。
对于第一个挑战,当前业界还没有最佳实践可循,巨量模型的市场化表现还有待观察 。与会专家抛砖引玉指出,希望可以在中文输入法、语音翻译质量(特别是方言场景)、谣言识别、智能客服、客户端个性化推荐等场景上看到巨量模型有所作为 。
不过也有专家指出,源1.0主要针对的是语言模型,但当前实际业务中,多模态模型需求是个趋势,他们希望源1.0不仅是针对中文文本的模型,在视频、图片、声音等多模态语境甚至是多语种语境中也能有所作为 。