本文聊聊企业在面对生成式AI时,需要考虑的问题和部署逻辑。文章最初发布于我的个人微信公众号,发布时间为2024年1月17日。
回首各行各业动荡的2023年,科技行业一枝独秀。
尽管硅谷经历了罕见的裁员大潮,但技术 — — 尤其是人工智能科技并未因为经济不景气而停下脚步,反而因为大语言模型(以下简称“大模型”)的落地而急速发展。这也为身处科技行业中心的开发者们提供了更多就业可能。
Statista的统计数据显示,预计到2024年,生成式人工智能市场规模将达到256.1亿美元,预计市场规模年增长率将达到 19.08%。因此到2030年,全球生成式人工智能市场规模将达到730.1亿美元。尽管相比数千亿美元的人工智能大市场而言,生成式AI的市场份额显得十分“小而美”,但其恐怖的增长率将带来短时间内爆发的无限可能。
而这片大市场中,就包含了面向企业的生成式AI相关的技术设施、大模型、软件和核心生产力工具及其相关服务等行业。本文介绍的,就是企业在面对生成式AI时,需要考虑的问题和部署逻辑。
相信不少决策者已经了解到,目前升级后的ChatGPT-4大模型,以及国内的星火、文心一言、通义千问等大模型都做到了实时联网,这就意味着进入2024年,这些大模型已经可以做到直接与生产岗位第一线的员工和干部提供最新鲜热辣的资讯和基于这些大模型背后相关数据形成的洞见。
决策者们应当意识到,在这样的现状下,非公司内部高度保密的信息,员工和决策者的信息获取渠道将高度雷同,甚至在员工层面将会获得比决策者更具事实细节的资讯。因此决策者应当考虑到员工在理解企业高层的愿景和目标之后,执行关键决策会更加高效这一优势,积极鼓励公司推动IT变革,为员工打造符合企业实际情况的大模型平台,实现高效决策和执行,最终利用生成式AI、数据处理分析和执行效率的三重优势实现降本增效。
而在企业IT方面,在考虑成本因素的前提之下,决策者需要根据企业的具体行业类型和逻辑,从企业IT基础设施开始,一步步推动生成式AI在企业内部的部署,最终惠及整个企业。
企业AI基础设施:选公有云还是私有云?关心成本就好
对于企业AI基础设施来说,采用公有云还是私有云,决策者只需要考虑成本因素就可以进行选择。不过,这也会对决策者对企业IT的认知和企业IT员工本身对企业的认知和技术实力都要有所了解,才能进行下一步和成本有关的考量。
在企业的IT能力被充分发挥的条件下,决策者可以选择搭建自有的协作工具、安全护栏、数据库并引进本地大模型,针对公司所在行业进行自主设计和开发,IT只需要采购具备高AI性能的基础设施硬件即可。
事实上,早在2021年,诸如英伟达(NVIDIA)这样的科技龙头已经开始向全球出货基于Tensor核心和RT核心的高性能AI硬件,而英特尔(Intel)和AMD还未在企业基础设施市场布局高端AI硬件。不过这并不妨碍IT能力足够强大的企业决策者们做出其他选择,比如用基于ARM架构的Ampere基础设施实现更高效的大模型训练 — — 当然,企业IT往往并不需要在本地大模型的训练方面进行过多投入,当企业内部的大模型运作一段时间之后,完全可以采用效率较低但成本大幅下降的基础设施进行大模型的日常训练任务。
但其实绝大多数企业自身并不存在完善且被允许自由发挥的IT能力,因此结合了协作工具、数据库能力、数字安全、开发能力和大模型于一体的基础设施供应商,其性价比要远高于私有云IT的搭建。但这并不意味着企业IT自身的要求会有所下降,反而会更高。因为此时的企业IT需要同时了解企业IT工具、基础设施相关的简单设置与维护、企业内部数据库管理和维护,以及和企业所用大模型的相关知识、API设置和部署相关的工作。相比传统企业IT,新的企业IT不要求针对一件工作做专做精,但要求对公司整体的IT架构有着完整的了解。
协作工具:无脑选集成生成式AI的那个
目前,协作工具正在逐渐替代传统的、孤岛式的邮件和聊天系统,成为高度集成化的企业内部沟通工具,逐步占据企业协作市场。由于云的存在,这种集成化的协作架构也在一定程度上让这些工具具备了强大的扩展性。
大模型的加入可以让企业员工在沟通和协作过程中快速取得洞见、积极关注重点议题和日程安排,为工作和决策带来更严谨的指导和实践方法论,甚至可以在企业寻求创新,进行头脑风暴的时候提供更多灵感和建议,以完善执行流程,并加快各项工作的效率。协作工具中集成的大模型几乎是一线员工和决策者最能感知到的人工智能应用,当该工具能够在企业中发挥作用时,将会达到立竿见影的效果。
当然,目前在市面上流行的协作工具,因为这些工具的供应商的技术实力原因,基本上都能做到在短时间内集成生成式AI,包括钉钉、飞书以及Microsoft Teams等,并且在理想状况下,企业IT也只需要了解协作工具相关的API就可以与公司内部的业务进行集成,因此决策者基本无需太多顾虑。
核心生产力工具:提升员工的“AI力”
如今,智能手机中的NPU核心已经发展了超过5年的时间,手机中的NPU在超低功耗下执行人脸和图像识别、语音转文字以及翻译等方面发挥着非常关键的作用。而随着大模型的能力逐渐被消费者和企业员工认知,而在本地或私有大模型即将落地的2024年,相应的终端工具也需要配备相应强大处理能力和超低功耗的硬件才能更好地为客户服务。如果您对新的个人生产力硬件感兴趣,不妨订阅微信公众号:bradliublog,相关内容即将推出,敬请期待。
在年初的CES上,我们可以看到非常多基于大模型和AI相关的能力和硬件的展示,其中一些就是为大模型的快速部署和扩展而准备的。如英特尔的酷睿Ultra系列处理器,AMD的8040系列处理器都加入了全新的NPU模块,旨在为更多大模型相关的AI任务 — — 如Stable Diffusion本地模型的画图工作带来更优秀的能耗比。
其实在引入NPU之前,个人电脑就已经开始处理基本的AI任务了,比如视频会议中常用到的音频降噪、人物抠像等,但这些如果采用CPU和GPU工作的话,需要相对强劲的硬件支持。而在生产力工具SoC化并引入NPU之后,这些任务也可以被超低功耗的个人电脑解决,而无需使用高功耗且笨重的设备。并且在加入NPU之后,PC端操作系统也可能会快速引入和智能手机类似的功能和AI能力,这些能力不论是在企业IT维护方面,还是在设备的性能表现和续航等方面都会大有裨益。
放眼未来,随着企业IT软件的不断AI化,具备AI处理能力的硬件也将会在新时期大显身手。配备NPU的个人设备将会在运行具备AI能力的软件时更加流畅且省电。这会为员工在使用设备时进行多任务处理,以及长时间离电环境下的工作都有着十分重要的保障,某种意义上这更是企业福利的一种体现。作为企业决策者,在面对不确定的未来时,应当持续关注AI化硬件的发展,积极拥抱AI化硬件,为企业的良好未来铺平“硬道路”。