生成式人工智能的基础是模型,按照模型的参数量可以分为大模型(LLM)和小模型(SLM)。所谓的小模型,一般指参数规模在10B以下,10B以上属于大模型。大家目前耳熟能详的都是大模型,实际上我们在基础教育领域使用大模型解决问题,有时候就像是“炮弹打蚊子”。基础教育的问题并不都是需要深度思考的复杂问题,从基础教育的学习内容的难度和复杂度来看,很多情境只使用小模型就可以很好的解决,如口算批改、学情分析等。下面我们就从大小模型的特性对比、教育特性两个维度来分析,基础教育我们是应用大模型还是小模型。一、特性对比小模型之所以也能很好的解决问题,一方面受到过专属垂类领域的知识训练,另外一方面是对解决该垂类问题进行过专门适配。那么大模型和小模型在基础教育应用中有什么特性呢?我们从知识广度、能力等维度来分析一下:
| 特性 | 大模型 | 小模型 |
| 知识广度 | 海量知识储备 | 专注特定领域,在基础教育教学场景下,分而治之的模式还是具有一定的市场的 |
| 处理能力 | 擅长复杂问题解决(如论文写作、古文翻译,个性化学习路径推荐) | 擅长特定任务,如计算、语法检查、作业批改 |
| 响应速度 | 按照课堂应用的时效性,响应较慢(需云端计算) | 快速(可本地运行) |
| 硬件需求 | 需要高性能GPU集群 | 普通设备即可运行 |
| 训练成本 | 高昂(单次训练超百万美元) | 低廉(不足大模型1%) |
| 性价比 | 较低 | 较高 |
| 典型代表 | DeepSeek-671B | Phi-3.5-mini-instruct Qwen2.5-5B-instruct |
| 备注 | 泛化能力强,可解决通用问题和一些比较复杂问题,在基础教育中业务所需频次属于中低等频次。 | 按照最优性价比原则,小模型在解决一些基础教育问题上有突出优势,执行效率高,问题解决能力突出。尤其采用大模型蒸馏版的基础教育专属小模型,能很好的解决基础教育问题。 |
二、基础教育特性基础教育具有基础性、公益性、普及性等特点,基于基础教育公益性特点,人工智能+基础教育,应该首先考虑的是经济性,只有最经济的才是符合主流应用场景的,也是符合基础教育特性的。因此,在模型选用时,我们一直追求的是技术赋能性价比。当年的全息成像和虚拟现实技术在基础教育不温不火就是这个原因导致的。基础教育目前虽然推进大单元、跨学科等内容,但学科相对还是分设的,对于单个学科的问题,从知识量到问题复杂度,10B以内的小模型已经能够足以应付。目前的教育还是教师和学生双主体的模式,教师在教学中起着教学活动组织、引导、管理的职责,人工智能处于辅助地位,从这个角度来讲,小模型也足以可以解决问题。三、人工智能+基础教育的最优配置当然,通过以上分析,大模型肯定是能力更强,更能解决通用问题,但是对于一个学校,拥抱生成式人工智能,大模型并不是最优选择。最合适的方式是国家或省市级层面统一建设教育通用大模型,区域或学校建设专属垂类小模型,通用大模型解决复杂问题,和宏观层面的问题,区校小模型指向具体业务,实现赋能增效。此外,对于教师教学情境。学科教师只需要使用垂类小模型来辅助教学即可,对于班主任和学生个体,则需要在多个垂类模型基础上叠加通用大模型或经过蒸馏的专业小模型来赋能,并汇总多个模型的学生表现结果,对学生的学习开展五育融合的综合评估,即除了学科小模型,还需要至少有一个学生评估小模型。综合以上判断,未来,基础教育一定是教育垂类小模型的天下,不仅仅是因为解决问题的效率,还符合赋能最优性价比的原则。当然,如果随着算力成本的下降,使用经过基础教育价值观对齐的大模型也未尝不可。
