当大模型的性能竞赛持续加速,人工智能研究的下一步该怎么走?4月18日至19日,FAIC(人工智能基础大会)在上海财经大学给出了一个相对务实的答案:既要继续提升能力,也要深入探索基础问题。
来自北京大学、清华大学、上海财经大学、中国人民大学、上海交通大学、复旦大学、南京大学、浙江大学、香港大学、香港科技大学(广州)等高校、科研机构及企业的400余位不同学科的学者与从业人员,集中讨论了几个核心问题:大模型为何有效?能力如何形成?训练怎样更高效、更稳健?以及如何用扎实的研究支撑下一阶段的创新。
在主旨报告环节,专家们分别从模型结构、数学智能化、大模型机理等角度展开,既有对基础理论的深入探讨,也有对未来技术路线的前瞻判断。整体来看,人工智能研究正从经验驱动,逐步走向理论探索与方法创新并重的阶段,这次会议恰好捕捉到了这一转变。
平行论坛覆盖了大模型训练与对齐、机器学习理论、优化方法、图机器学习、模型加速、数据优化等多个方向。与会者既关注大模型如何训练得更高效、更稳定,也关注模型行为背后的内在规律,以及人工智能与科学研究、复杂场景应用深度结合的可能性。多场讨论传递出一个共识:面对模型规模扩大、训练成本上升和应用需求提升等现实挑战,单靠某一类方法已经不够,需要在基础理论、方法创新和系统优化等多个层面同时寻找突破。
在自由讨论中,学者们没有停留在技术细节上,而是就基础研究如何支撑实际发展、模型能力与训练效率如何统筹、应用需求如何反馈到基础研究等议题,进行了务实的对话。
主办方表示,FAIC 2026的召开恰好处在人工智能研究更重视基础、更重视规律、更重视长期积累的节点上。无论是模型结构设计、训练方法改进,还是数据质量提升与交叉应用拓展,最终都要回到扎实的基础研究上。
头图为活动现场。校方供图