目录

科大讯飞首发开源大模型星火开源-13B-深度适配昇思MindSpore-AI框架

目录

科大讯飞首发开源大模型“星火开源-13B” 深度适配昇思MindSpore AI框架

1月30日,科大讯飞举行星火认知大模型V3.5升级发布会。发布会上依托昇思MindSpore AI框架打造的讯飞星火开源大模型“星火开源-13B”正式发布,开源模型场景应用效果领先,目前已在Gitee的MindFormers代码仓开源,用户可在昇思MindSpore开源社区线上体验。

开源代码仓:https://gitee.com/mindspore/mindformers/tree/r1.0/research/iflytekspark开源社区体验:https://xihe.mindspore.cn/modelzoo/iflytek/introduce

https://i-blog.csdnimg.cn/blog_migrate/7eba509ea37b0b4d3e6a9072a0ca3c48.png

1、 公开评测榜单名列前茅,应用效果显著领先

https://i-blog.csdnimg.cn/blog_migrate/9764a0de72c3b01300e817e927ddde32.png

星火开源-13B在多项知名公开评测任务中名列前茅,在文本生成、语言理解、文本改写、行业问答、机器翻译等企业典型场景中,通过对学习辅助、语言理解等领域的深入研究和优化,大幅提升了其实用性,在处理复杂的自然语言任务时更加得心应手,确保了其在面对多样化和专业化的应用场景时能够保持高效和准确,效果显著优于其他同等尺寸的开源模型。为各行各业提供了一种性价比高的解决方案。

https://i-blog.csdnimg.cn/blog_migrate/d5e03271d14565eca304f17ce6ec49ce.png

2、 利用MindSpore Transformers套件适配优化,同步上线昇思MindSpore开源社区

在星火开源-13B训练过程中,开发团队利用昇思MindSpore AI框架将训练效率提升了40%。此外,科大讯飞及昇思MindSpore研发团队通过昇思MindSpore Transformers大模型套件提供的分布式自动并行能力,实现训练策略的匹配,节省大量开发投入与策略调试时间,训练完成后可调用套件提供的一站式微调算法进行模型快速调优,从而实现开发效率大幅提升,目前已在相应代码仓及昇思社区上线,欢迎大家在线体验。

附录:

Mindformers仓库地址:

昇思MindSpore开源社区:https://xihe.mindspore.cn/modelzoo/iflytek/introduce启智社区:https://openi.pcl.ac.cn/iflytek/iFlytekSpark-13BGitee地址:https://gitee.com/iflytekopensource/iFlytekSpark-13B

社群二维码:

https://i-blog.csdnimg.cn/blog_migrate/98ef690aa6b4321a69b612ebc3965202.png