“中国的大模型很多,但是基于大模型开发出来的AI原生应用却非常少。”11月15日,在深圳2023西丽湖论坛上,百度创始人、董事长兼首席执行官李彦宏谈及国内AI行业现状时如是表示。拥有庞大数据、市场的中国正处于AIGC(生成式人工智能)的飞速奔跑进程中,截至2023年10月,中国大模型数量已增长至238个,全球特别是中国对于大模型开发的热情仍十分高涨,但一如李彦宏等AI从业者提出的问题,一个开始逐步显现的问题是,我们是否还需要更多的大模型呢,是否会真的构成“重复造轮子”的弯路呢?

理解这个问题,我们需要回溯到AIGC开发进程与常规互联网产品开发的区别,来分析为何中国的科技公司热衷于开发自己的大模型。

区别一 产品核心的多元化

传统软件、APP等是为了完成用户特定需求,将解决问题的算法编写为代码,代码(算法)即是产品的运转逻辑,故对于这些产品而言,最重要的核心就是代码(算法)本身,得到了源代码即可还原产品。而对于AIGC而言,虽然指导模型训练的算法仍很重要,但数据、硬件以及最终得到的模型亦不可忽视。即使得到了源代码,如果没有优质数据和硬件的支持,也很难还原出效果良好的模型。因此,相较于传统软件、APP等仅以源代码为核心,AIGC的核心呈现出“一主三副”的态势,即只有在代码(算法)、数据和硬件三个副核心的支持下,才能得到最为重要的模型这一主核心。这就导致对于希望未来在AIGC领域产生商业价值的科技公司,对于这不可或缺的“一主三副”核心,都展现出浓厚的兴趣,牢牢把握核心的控制权,方可拥有AIGC发展的先机。

区别二 运行逻辑的黑箱化

对于传统软件、APP而言,通过对源代码的解读即能完全还原出其运行逻辑,也即只要有了代码(算法),软件、APP等就是“透明”的,无论是用户还是监管方都能很直白地理解其工作过程。但正如前文所言,在AIGC中,代码(算法)只是三个副核心中的其中一个,即使得到了代码(算法),也只能对AIGC的运行逻辑有大致了解。这是因为,代码(算法)只能做到指导AI如何对数据进行学习,但AI本身是在主动学习,其在训练数据中学到了什么样的知识,建立了怎样的神经元结构和相应参数库,是无法完全跟踪和全部预测的。打个比方,算法就像是老师告诉学生应当将错题与正确答案对比,找到错的地方并改错;但学生在刷题过程中具体错了哪些题,在改错过程中每一道错题对学生大脑中的知识体系产生了怎样的影响,则是老师也很难完全还原出来的。这种AI运行逻辑的不可知性被称为“算法黑箱”,是AI领域老生常谈的问题,也在AIGC中有所体现,例如ChatGPT上线之初常常会自己编造虚假信息,但openAI对于其具体为什么会产生这种问题也语焉不详。为确保未来产品的稳定性与可用性,对于参与这场AIGC之战的每一家厂商,都更需要全链条的掌握算法,以“透明”的视角去看待自家模型的运行。

如上所述,目前中国的AIGC企业关注的重点赛道尚还集中在模型的开发,其主要原因还是对于大模型“控制权”的担忧,正如读懂AI系列专栏02中所述的,这也与监管密切相关,中国的人工智能监管对于安全的把控十分重视,这也导致了AIGC企业首先需要严格保证大模型的开发和落地坚持社会主义核心价值观,这也与《生成式人工智能管理暂行办法》立法的宗旨所吻合,坚持“发展”与“安全”并重,坚持创新应用的导向生成积极健康、向上向善的优质内容。

回溯近一年以来AIGC产业的迅速发展,若将ChatGPT的诞生视作AIGC本轮爆发的一个“Killer App”,已然具备极强的基座大模型开发能力的中国企业,似乎显得没那么“快”,还尚未诞生出一条新的“蹊径”进行商业化运用,如开发出超脱于“对话模式”并在B端和C端均具有更广泛应用价值的应用。这诚然是美国本身产业发展优先半步的优势,但也是中国企业在人工智能基础化研究上仍坚守“风起于青萍之末”的必然结果。AI从业者对于中国“Killer App”诞生的呼吁本身是对未来更遥远的期待,但对当下的我们来看,慎重选择技术路线、坚持自研大模型的安全性,这里看似缓慢的脚步,反而是在疾驰的AI道路上脚踏实地的步伐。(作者:彭凯,Chambers上榜数据律师,plucky810@sina.com;聂千旭专注于知识管理和主持演讲的 00后合规律师)