创办院长罗卫国
罗卫国谈大模型
发布时间:2023-11-08




点开(1)20位大佬“舌战”乌镇


点开(2)黄光裕的最后一战


点开(3)测评了8个国产AI大模型,差点崩溃……





算卡助手


什么是大模型?


罗卫国:2023年11月8日,本文2.3万字,是在ChatGPT的协助下完成,部分观点参考ChatGPT的输出,特此致谢!




一、大模型的定义

大模型是一个泛称,指的是具有大规模参数和计算能力的机器学习模型。这些模型通常由深度神经网络构建而成,拥有数十亿甚至数千亿个参数。

通俗来讲,大模型就是通过输入大量语料进行训练,让计算机获得类似人类的思考能力,使之能够理解文本、图片、语音等内容,能够进行文本生成、图像生成、推理问答、科学预测等工作。


二、大模型的特征

巨大的规模: 大模型包含数十亿个参数,模型大小可以达到数百GB甚至更大。巨大的模型规模使它们拥有强大的表达能力和学习能力。

多任务学习: 大模型通常会一起学习多种不同的NLP任务,如机器翻译、文本摘要、问答系统等。这可以使模型学习到更广泛和泛化的语言理解能力。

大数据训练: 大模型需要海量的数据来训练,通常在TB以上甚至PB级别的数据集。只有大量的数据才能发挥大模型的参数规模优势。

强大的计算资源: 训练大模型通常需要数百甚至上千个GPU,以及大量的时间,通常在几周到几个月。

知识蒸馏: 大模型的训练通常采用知识蒸馏技术缩小模型首先训练一个更大的教师模型然后使用教师模型指导一个较小的学生模型训练。这可以加速训练过程而保留大模型的能力。

模型剪枝与压缩: 为了减小大模型大小和降低推理成本通常需要对模型进行剪枝、量化和压缩等处理。


三、大模型的分类

1、按照输入数据类型的不同,大模型主要可以分为以下三大类:

语言大模型(NLP:是指在自然语言处理(Natural Language ProcessingNLP)领域中的一类大模型,通常用于处理文本数据和理解自然语言。这类大模型的主要特点是它们在大规模语料库上进行了训练,以学习自然语言的各种语法、语义和语境规则。例如:GPT系列(OpenAI)、BardGoogle)、文心一言(百度)。

视觉大模型(CV):是指在计算机视觉(Computer VisionCV)领域中使用的大模型,通常用于图像处理和分析。这类模型通过在大规模图像数据上进行训练,可以实现各种视觉任务,如图像分类、目标检测、图像分割、姿态估计、人脸识别等。例如:VIT系列(Google)、文心UFO华为盘古CVINTERN(商汤)。

多模态大模型:是指能够处理多种不同类型数据的大模型,例如文本、图像、音频等多模态数据。这类模型结合了NLPCV的能力,以实现对多模态信息的综合理解和分析,从而能够更全面地理解和处理复杂的数据。例如:DALL-E(OpenAI)悟空画画(华为)、midjourney

2、按照应用领域的不同,大模型主要可以分为L0L1L2三个层级:

通用大模型L0是指可以在多个领域和任务上通用的大模型。它们利用大算力、使用海量的开放数据与具有巨量参数的深度学习算法,在大规模无标注数据上进行训练,以寻找特征并发现规律,进而形成可举一反三的强大泛化能力,可在不进行微调或少量微调的情况下完成多场景任务,相当于AI完成了通识教育

行业大模型L1是指那些针对特定行业或领域的大模型。它们通常使用行业相关的数据进行预训练或微调,以提高在该领域的性能和准确度,相当于AI成为行业专家

垂直大模型L2是指那些针对特定任务或场景的大模型。它们通常使用任务相关的数据进行预训练或微调,以提高在该任务上的性能和效果。


四、大模型的评价维度

结合IDC发布的《2022中国大模型发展白皮书》评估框架作为参考,评价维度包含一个整体评估框架、三个评估维度、六个一级指标和十一个二级指标。

1、产品能力:主要考虑到大模型的技术能力和功能丰富度,以及底层深度学习平台的核心支撑能力,具体包括3个一级指标,分别是模型能力、工具平台能力和开放性。

模型能力:包括模型丰富度和模型性能。

工具平台能力:包括功能丰富度、平台成熟度和易上手程度。

开放性:包括开发可体验的功能和对用户隐私保护及数据安全措施。

2、应用能力:主要考虑到大模型+深度学习平台的实际应用广度和深度、商业化前景,具体包括2个一级指标,分别是应用广度和应用深度。其中应用广度是考察覆盖行业数;应用深度是考察客户业务流程关键环节渗透度。

3、生态能力:主要考虑到大模型市场生态布局情况,考察基于大模型进行产品开发的开发者数量、基于大模型工具与平台开发者创建的模型或应用数。


五、构建大模型的资源要求

在人工智能发展的三要素中,数据算法都离不开算力的支撑。随着AI算法突飞猛进的发展,越来越多的模型训练需要巨量算力支撑才能快速有效实施,同时数据量的不断增加也要求算力配套升级。如此看来,算力将成为AI突破的关键因素

大模型训练是指通过大量数据训练出一个复杂的神经网络模型,就好比你是正在学习的学生,而你学习的过程就是大模型训练过程。

大模型训练时对于算力的需求非常庞大,模型训练需要使用大量的GPU显卡进行长时间的运算,其训练成本较高。比如GPT-3首次发布于20205月,模型参数规模是1750亿,训练数据量是570GB,训练成本是1200万美金(折合人民币8777万元)。

大模型推理是指利用训练好的神经网络模型进行运算,利用输入的新数据来获得正确结论的过程。

在暂不考虑软件层面算法优化带来的模型消耗算力成本下降的前提下,国内大模型在推理阶段或将产生相当于3.8万台高端AI服务器的算力需求,以单片A100售价10万元人民币、AI加速卡价值量占服务器整机约70%计算,则对应约434亿元增量AI服务器市场规模。

我们已迈入一个全新的大模型时代,模型训练和推理都需要大量算力,算力需求正以前所未有的速度飙升。那么对于C端的个人消费者,我们应该如何获取算力?





狂热的大模型如何助力企业营销升级?


OpenAI发布的大语言模型ChatGPT在全球爆火之后,国内各大厂商纷纷亮剑:百度抢先发布文心一言,阿里、京东、华为、知乎、科大讯飞、商汤、昆仑万维等科技公司也相继推出了自家的大模型。

这些大模型可以生成自然、流畅的语言,实现智能问答、文本摘要、自动翻译等任务,可广泛应用于搜索引擎、语音识别、智能客服等场景。随着大模型的应用的发展,人们的日常工作、生活方式也将逐渐改变。在营销领域,大模型也可以为企业带来巨大的商业价值和挑战。


大模型的核心技术是什么?


大模型的核心技术是深度学习和自然语言处理技术。深度学习指利用深层神经网络对大量数据进行训练和优化,从而实现智能的数据分析和处理。而自然语言处理技术则是指对人类自然语言进行分析和处理的技术,包括文本分析、情感分析、语音识别、机器翻译等。

在大模型的设计中,常常会采用预训练和微调的方式。预训练指利用大量的文本数据对深度神经网络进行训练,从而获得模型的初始参数。这样训练出来的模型能够对自然语言有一定的理解能力。微调则是指针对特定任务对模型进行调整和优化,使其在特定的任务上表现更好。比如,在情感分析任务中,可以利用预训练模型对大量的文本数据进行训练,然后再利用微调的方法对模型进行优化,使其在情感分析任务上表现更好。

大模型的优点在于它们能够自动学习和适应不同的任务和场景,因此能够提高效率和准确度,同时也能够减少人工干预和成本。与传统的基于规则的方法相比,大模型不需要手动编写和维护复杂的规则和逻辑,而是通过大规模的数据训练和自我优化来实现任务处理和推理。这种基于数据驱动的方法不仅能够提高效率和准确度,还能够减少人工干预和成本。


百舸争流的大模型盛宴,差异化在哪里


当前,各大企业和科研机构都在研发大模型,这些模型的基本架构和训练技术都有很多相似之处,但是它们之间也存在一些差异化,主要表现在以下几个方面:

模型结构:不同的大模型会采用不同的神经网络结构,比如BERTGPTTransformer等等。这些不同的结构在处理文本和语言任务时有着不同的优缺点,因此在不同的场景和任务中,可能会有更适合的模型结构。

数据集:数据集对大模型的训练和表现至关重要。不同的数据集在数量、质量和覆盖范围等方面有所不同,因此在不同的场景和任务中,可能需要选择不同的数据集来训练模型,以获得更好的效果。

预训练策略:预训练是大模型的核心技术之一,不同的预训练策略也会对模型的性能产生影响。例如,BERT采用的是Masked Language ModelMLM)和Next Sentence PredictionNSP)两种预训练任务,而GPT则采用了语言模型预训练。在不同的场景和任务中,可能需要选择不同的预训练策略来训练模型。

微调方法:微调是针对特定任务对预训练模型进行优化的过程,不同的微调方法也会对模型的性能产生影响。例如,在情感分析任务中,可以采用Fine-tuningFeature-based方法或者是Few-shot Learning等不同的微调方法。在不同的场景和任务中,可能需要选择不同的微调方法来优化模型。

部署环境:大模型的部署环境也会对其表现产生影响。例如,在移动设备或者嵌入式设备上部署模型需要考虑资源限制和实时性要求等问题,而在数据中心或云端部署则更注重高性能和可扩展性等方面。因此,在不同的部署环境中,可能需要选择不同的模型和优化方法。

当然,差异化是大模型在竞争中取得成功的关键之一。不同的企业和机构应该在自己的领域中不断探索和创新,以获得更好的模型性能和更适应不同的应用场景。


大模型技术如何助力企业营销?有哪些场景?


大模型在营销场景中的应用可以从多个角度提升企业的营销效果和客户满意度,为企业带来更多商业价值。

智能客服:大型企业可以使用大模型技术来构建智能客服系统,该系统可以通过自然语言处理和深度学习技术,自动识别和回答消费者的问题,提供个性化的服务。这不仅可以提高客户满意度,减少客服成本,还可以通过对话数据分析和挖掘,提供更好的用户体验和营销策略。

智能推荐:大型电商企业可以利用大模型技术来构建智能推荐系统,该系统可以根据消费者的历史购买数据和行为数据,利用深度学习算法进行分析和预测,提供个性化的推荐产品和营销活动。这可以提高客户的购物体验和购买转化率,同时也可以增加企业的销售额。

营销预测:大型企业可以利用大模型技术来进行营销预测,该预测可以根据历史数据和行为数据,预测未来市场趋势和消费者行为,帮助企业更好地制定营销策略和优化资源配置。同时,营销预测也可以提供更准确的销售预测和需求预测,帮助企业更好地管理库存和生产计划。

营销创意生成:大型企业可以利用大模型技术来生成营销创意,该技术可以通过对海量的营销数据进行学习和分析,自动生成适合企业的营销创意和广告内容。这可以大大节省创意和广告策划的时间和成本,同时也可以提高营销效果和转化率。

营销效果评估:大模型可以对营销活动进行效果评估和优化。例如,在广告营销中,大模型可以分析广告投放的效果,识别关键指标如点击率、转化率、投资回报率等,帮助企业进行投放优化和决策。


大模型技术未来发展趋势如何?

未来大模型技术将会持续发展和进步,为各个领域带来更多的商业价值和社会效益,个人认为应该会在以下几个方面进行加强:

更加高效的训练算法:当前大模型的训练成本非常高昂,需要大量的计算资源和时间。未来,大模型的训练算法将进一步优化,以降低训练成本和提高训练效率。

更加智能的自适应学习:未来的大模型将能够自适应地学习和优化自身模型,以更好地适应不同的场景和任务。

更加精细的模型结构设计:未来的大模型将会更加精细和复杂,以更好地处理复杂的自然语言处理、计算机视觉、语音识别等任务。

更加多样的应用场景:未来的大模型将会应用到更加多样化的场景中,如医疗健康、智慧城市、金融服务等,为人类社会的各个领域带来更多的创新和进步。

对于营销型大模型,需要大量的数据和计算资源,以及专业的技术人员进行维护和更新、出色的集成能力来匹配企业现有的营销系统,以保证其性能和安全性,才能发挥最大的商业价值。




大模型的收费模式


ChatGPT3.5发布已近一年,大模型狂热开始逐步降温:GPU禁运及长期烧钱的事实,让国内的大模型企业,不得不加速商业化考量。

目前,大模型的B端应用已经出现各种定价方法,包括按照时间段收费、按调用量收费以及各种包含硬件的一站式解决方案。其中,按照调用量定价的大模型又可以分为token计费以及按照查询次数收费。

与此同时,国外的大模型先行者实现收入激增,比如微软,每月大模型应用的收入已经达到数千万人民币,并且保持20%以上的月均增速。

OpenAI公司收入增长也超出预期。The Information援引知情人士报道,按照OpenAI目前的营收增速,这家公司有望在未来12个月内通过销售AI软件和算力产生超过10亿美元的收入,高于该公司此前对股东报告的收入预测。

不过,国内大模型的商业化之路比国外同行要慢半拍,在模仿后者的商业化道路上可能荆棘遍地。

ChatGPT可以针对C端客户收取月费,但国内大模型想向C端收费绝非易事。先做大C端用户规模,再向广告主收费是互联网企业的不二法门;至于要求苛刻的B端客户,大模型厂商能否说服他们付费,并形成稳定的SaaS订阅收入模式,还有很长的路要走。


一、token收费


目前,通用大模型平台偏爱按token计费,但国内国外的token标准并没有统一,国内一些大模型平台1 token等于1个汉字,一些平台理解为1.5个汉字,还有1.8个汉字。除此之外,各家收费计算口径也不一样,以千tokens计价,价差最高达上百倍,每1000 tokens收费在0.008元至0.876元人民币之间。罗卫国:OPENAI——1TOKENS 相当于750个英文单词、400-500个汉字,2023118日:GPT-4TURBO 输入0.07人民币、输出0.22人民币。


1、 什么是token


Token是用来计量大模型输入、输出的基本单位,也可以直观的理解为。但是目前并没有统一计量标准,各家大模型平台根据自己的偏好随意定义。如腾讯1token≈1.8个汉字,通义千问、千帆大模型等1token=1个汉字,对于英文文本来说,1token通常对应34个字母。市场急需统一口径。

具体计价时,大模型按照tokens计量,且服务输入和服务输出均收费。目前,ChatGPT对输入和输出收取不同费用,而国内的大模型输入和输出收取费用一样。如千帆大模型对收费解释如下:

输入:请给我念一首诗,输出:春眠不觉晓,处处闻啼鸟。夜来风雨声,花落知多少。

中文字数共27,总计tokens27,输入7tokens,输出20tokens

各家企业的大模型tokens计价五花八门,同一家企业也推出不同大模型,收费也不尽相同。此外,同一个产品不同时间段使用,收费还不一样。如百川智能的大模型Baichuan 53B,其00:00 ~ 8:00收费为0.01/tokens,而8:00 ~ 24:00收费为0.02/tokens

具体来讲,科大讯飞目前对外开放了星火大模型V1.5V2.0V3.0等三个版本,其刊例价分别为0.18/tokens0.36/tokens0.36/tokens。目前针对个人客户可以免费试用200tokens,针对企业客户可以免费试用500tokens。就企业客户而言,科大讯飞为每个版本的大模型各推出了四个收费套餐,其中V3.0V2.0版本价格相同,且是V1.5的两倍

腾讯混元大模型提供 API 接入方式,采用后付费日结模式:为每个在白名单中的已实名腾讯云企业账号提供累计10tokens 的免费调用额度;以资源包的形式发放到腾讯云账号中,优先扣除。在免费额度用完后,按正常价格进行计费


OpenAI推出了多款商业化大模型,分别是GPT-4GPT-3.5 TurboFine-tuning modelsEmbedding models等。OpenAI公司各大模型定价相差较大,其中GPT-4-32k context输出服务收费最贵,每1000 token收费0.12美元,折合成人民币0.876元。

国内国外大模型定价相差百倍,文心一言和通义千问(qwen-turbo)仅0.008/1k token


二、按月收费


除了按照token计费,一些AI助手按月收费。如微软开发的AI编程工具GitHub Copilot,目前已经拥有150万用户。针对个人客户,GitHub Copilot收费是每月10美元,或者每年100美元;针对企业客户,对应收费是19美元/月。按照微软最新财报,互联网巨头通过大模型,带动周边业务,如office,搜索引擎bing,云业务Azure等营收大幅增长,也是一种商业化的模式。

除此之外,OpenAI公司推出的ChatGPT,针对客户也有按月付费的服务,目前为每人每月20美元。除此之外,OpenAI通过客户注册账户使用的企业电子邮箱统计分析发现,已经有80%的世界五百强企业员工开始使用ChatGPT进行工作

另据Techcrunch报道,相关数据显示,9ChatGPTiOS和安卓应用端的下载量达到1560万次,单月总收入458万美元。

111,文心一言推出会员模式,单月购买59.9/月,连续包月定价49.9/月,开通会员后,付费会员可以使用文心大模型 4.0。此外,文心一言联合会员——“文心一言会员+文心一格白银会员定价99/月,白银会员享有AI编辑改图修图等更多权益。

不过,按月收费的模式在C端用户方面成本高企,即使微软也依然亏损严重。今年头几个月,微软在这个项目上平均每个用户每月亏损超过 20 美元,一些用户造成的损失高达 80 美元。不过, GitHub Copilot的整体收入在持续增加。


三、收取广告费


令人意外的是,ChatGPT的知名度虽然最高,但在软件商店中并不是收入规模最大的人工智能应用,而是一款名为 Ask AI 的竞品。

根据App Store中该应用介绍——Ask AI旨在简化用户的工作并扩展知识,提供精确的答案来帮助用户完成任务。

该应用不仅收取每周4.99美元订阅费用,还因为下载量巨大,已经超过2500万次,吸引了商家投放广告,每月获得数百万美元收入。

Appfigures 的数据显示,Ask AI的订阅和广告累计收入超过1600万美元。按月计算,从 今年5月份的 648 万美元上升到了8月份的 655万美元,9 月份略有下降,至 551 万美元,但这一数字仍高于 ChatGPT 在软件商店的收入。因此,只要下载量或者使用量足够大,未来广告收入也将成为大模型商业化的主要收入来源。

另据 Data.ai App IQ 统计,截至 2023 8 月,iOS App Store Google Play 已累计发布超 1000 款生成式 AI功能应用,全球总下载量已突破 8 亿次。其中,一款名叫Artimind的以生成 AI 图片为主要功能的全新应用,已获得近 150 万安装量。

国内,也有一些类似的产品推出,未来也可能实现广告收入,如科大讯飞的基于大模型的产品讯飞星火上线首日 14 小时用户突破 100 万,迅速登上 AppStore 免费总排行榜第一。


四、按调用次数收费


与按照token计价略有不同,一些大模型产品按照调用次数收费。

2023年钉钉生态大会上,钉钉将大模型商业化与钉钉现有服务融合,落地应用场景的商业化方案是按照调用次数收费。具体来看,在钉钉专业版年费9800元基础上,增加1万元即可获得20万次大模型调用额度;增加2万元即可获得45万次大模型调用额度,相当于一次调用平均5分钱左右。

除此之外,Ask AI等大模型产品针对C端客户也推出了按需购买的服务。


五、定制化 软件+硬件服务


对于大型企事业单位,如银行、保险、信托公司、高校等,偏爱大模型企业提供定制化服务或者一站式服务。服务内容不仅包括大模型系统,还包括服务器等硬件产品等一站式解决方案。如近期清华大学准备花费700万元,公开采购大模型系统教学实践平台。该采购不仅包括大模型系统,还包括24台服务器(GPUFP32计算精度≥80TFLOPS),4台服务器(GPUFP32计算精度≥35TFLOPS),1台可编程交换机。山东商业职业技术学院云计算产业学院发布大模型技术赋能中心采购项目,预算116.466万元,也要求提供相关硬件产品。

与此同时,市面上一些企业也发布了人工智能一站式解决方案,如华为发布FusionCubeA3000/推超融合一体机。该产品支持两种商业模式:昇腾一站式方案和第三方GPU一站式方案,除了自研OceanStorA300高性能存储节点外,其余GPU服务器、交换机、AI平台软件向伙伴开放,为大模型伙伴提供开箱即用的部署体验,实现一站式交付。


六、总结与展望


烧钱如流水,大模型的商业变现显得更为急切,但是与巨大的投入成本相比,当前的收入能否覆盖各项成本支出仍未可知。

中国亮点研究院认为,在产品定价方面,大模型企业针对C端客户的产品按月收费,针对B端客户,按照调用量(token、次数)计价可能是明智的选择。虽然C端客户付费意愿不强,但只要用户量足够大,大模型公司就可以从广告主处获得补偿,类似Ask AI。企业客户由于工作需求,付费能力更强,日常使用调用量较大,按照调用量收费才能更好的覆盖成本。除此之外,由于大型企业拥有更强的付费能力,为银行、大型央企、国企、上市公司等提供定制化、一站式服务,可以为大模型企业带来更多收入。比如目前一些大型银行在公布大模型采购服务时,服务内容就不仅包括AI软件与模型开发服务,还包括大模型GPU服务器、GPU专用存储服务器、IB交换机等硬件采购。

不过,红杉资本的文章《Generative AI’s Act Two》提到,当前生成式AI客户参与度较低。与一些消费公司拥有60%-65%的日活或者月活相比,生成式AI应用程序的中位数仅仅14%,这意味着用户还没有在生成式人工智能产品中找到足够的价值来每天使用它们。因此,大模型平台必须进一步优化产品,让生成式AI结果更加满足用户需求。

展望未来,训练成本、芯片采购成本不断攀升,严重阻碍大模型升级迭代,而占比最大的是AI芯片成本,如何降低芯片成本成为大模型企业的当务之急!

据伯恩斯坦分析师Stacy Rasgon分析,如果ChatGPT的查询规模增长到谷歌搜索的十分之一,OpenAIGPU采购成本高达480亿美元,另外,还需要每年支付160亿美元芯片运维成本。

面对巨额成本,除了等待芯片价格下降外,大模型企业也在想办法制造芯片,如OpenAI不仅考虑自研芯片,还投资了3家芯片公司,其中包括美国算力芯片公司Cerebras。这家公司造出了世界最大的芯片,拥有1.2万个晶体管、面积大过ipad


国内的大模型企业面临的压力尤甚。

随着美国不断收紧AI芯片出口,不仅面临着芯片难买、还面临着价格飞涨的窘境。1017日,美国商务部工业与安全局(BIS)进一步收紧对尖端人工智能芯片的出口管制,严格限制英伟达和其他芯片制造商向中国销售高性能半导体。根据新规受到管制的英伟达芯片涉及 A100A800H100H800L40,甚至包括RTX4090

与此同时,相关芯片存货价格翻倍式上涨,A800H100等每台已经涨到150万以上,RTX 4090显卡价格更是从原本的1.5万元飙升至3万元以上,其他芯片更是有价无市。芯片等价格飞涨导致国内大模型企业研发支出成倍增长,企业盈利状况不断恶化。科大讯飞今年三季度归属于上市公司股东的净利润同比下降81.86%,其表示主要原因系公司在通用人工智能认知大模型等方面坚定投入。

种种不利条件,导致刚起步的国内大模型企业在与国外同行竞争时,面临着算力不足,大模型优化升级滞后,从而引起客户付费意愿不足的窘境。





企业如何规划大模型预算和落地路径?


在即将到来的2024年,企业应如何规划大模型应用场景,未来的重点场景有哪些?同时,企业要怎样确定2024年大模型预算,并带来实际业务价值?


01大模型在企业用户落地进展

大模型在落地进展方面,我们将主要探讨三个部分:

第一部分是企业用户目前对大模型的预期变化;第二部分是2024年预算如何设置的问题;第三部分是大模型如何阐明业务价值。在内部立项时需要着重包装大模型的业务价值,以便获取更好的预算。

1.1 企业用户对大模型的预期

首先是预期问题。我们基本上是基于面访和问卷调查来进行调研,调查样本主要分布在使用大模型相对较早的行业,其中包括金融和能源这两个最大的领域,此外也包括零售和汽车制造等行业。

我们首先可以看到,绝大多数企业用户目前所处的阶段基本上还是我们所定义的探索可研阶段。与年初相比,这个阶段在23年变化并不是特别大,主要原因是大模型兴起在年初,企业的IT预算其实去年就已经完成了。所以2023年预算制定时其实是没有给到大模型的。


此,今年实际落地并采纳的大模型预算基本上都是AI相关,以及有些小项目的调整和追加预算。这就是今年实际落地的预算不多,以及还处于探索可研阶段的主要原因。

同时,我们重点调研了企业使用大模型的目的和现在实际在重点应用的场景。

首先是目的。我们可以看到,绝大多数企业用户在过去进行数字化的过程中,核心重点一定是业务收入的增长,业务收入增长是他们采用新技术的核心诉求。但在今年我们可以明显看到一个变化趋势,就是降本的优先级被提到很高。这一现象的根本原因在于大市场环境欠佳,导致企业自身实现收入增长的难度陡增。具体到例子,比如零售企业今年的增长主要是对过去存量的恢复性提升,而实际新增收入增长并不明显,增长空间也十分有限。因此,企业今年的核心目标是稳固利润,核心需求则是降低成本。

在这个大背景下,企业应用大模型其核心目的之一就是通过大模型投入降低企业整体运营支出成本。因此,我们建议企业在规划时,衡量大模型价值的标准也应是能否降低运营成本。例如,现在我们看到的一些企业通过RPA和大模型的组合实现流程自动化,从而降低整体运营成本;文生图也降低了采购和版权成本,以及设计师人员成本。

除运营成本外,第二个目标是产品和服务体验的创新。在增量市场较小的前提下,差异化竞争主要体现在产品和服务体验上,因此体验创新是大模型第二个核心应用点。例如现在我们看到的一些客服类应用,很多都是围绕体验的改善和创新进行的,像是在App中加入客户助手或客服助手,核心目标是改善用户体验,并延长用户留存时间。


1.2 大模型未来重点应用场景

下面聊聊2024年大模型重点应用场景。

首先第一个应用就是BI数据分析,这背后的原因首先是由于整体数据分析的理念在企业用户的渗透过程中已达到普遍接受的程度。除金融、零售、能源等数字化预算投入较多的行业外,传统的政府和企业、工业等都在应用数据分析的理念,这些理念的变化带来了对企业内部从高层角度的期望。除了业务部门领导者以外,高层还希望有更多数据分析的BP参与,同时业务部门的执行层也在应用数据分析的工具。因此,这些数据分析工具的普及是大模型更好的应用场景,因为大模型降低了这些工具的壁垒和门槛,使得数据分析更加平民化和普惠化。

另外,在这个过程中必然会带来前面所述的降本,因为原来的数据分析痛点之一是数据部门获取数据和制作报表的过程过于繁琐。现在在人员不变的前提下,自助式的大模型和分析工具能够帮助企业降低人力成本。

第二个应用是客服与知识库。这部分的提升一部分可以映射到服务体验创新,另外知识库的应用也能降低企业的运营成本,特别是客服方面,通过降低客服人员的数量达到降低运营成本的目的。在客服与知识库的应用中,大模型首先解决的问题是客户体验,过去的客服虽然拦截了大量的用户需求但并未解决问题,导致大量用户流失。所以,客服中的一次成功解决率指标其实过去的阈值是被高估的,虽然对外宣称可能达到60-70%甚至80%,但实际上仍有大量客户未能通过客服机器人解决问题。企业也正在基于大模型客服优化多轮对话的能力,改善用户的客服体验。

知识库实际上降低了部分运营成本。例如HRSSC场景,以及要涉及全公司的IT SSC场景,这些实际上都是在降低运营成本,主要是控制人员的数量。

第三个应用是营销。营销在应用的过程中,企业除了制作这些营销素材以外,非常重要的是关于整个营销的策划,即从人群选择到营销策略制定,再到文案到最后效果监测的全过程覆盖。这个过程的核心是降低企业的运营成本,即在人群选择后,营销策略和方案如何改善其最终转化率。这样改善转化率后,实际上对其营销成本,包括ROI的改善是非常有价值的。

另外像是业务流程自动化、软件开发、数字办公这三个基本上都围绕着降低运营成本展开。以上我们建议企业在大模型24年具体尝试场景的六个核心方向。


1.3 当前大模型在企业内的落地进展

接下来我们聊聊大模型的落地进展,与过去相比最大的变化是,之前我们更多看到能源和银行在做落地的进展,但在进入到Q3Q4后,可以明显看到政务在做大量的落地。这里的核心是因为政务中有很大一部分与客服相关,另外一部分与文档相关。同时,我们看到政务底下有几个核心的应用场景。


第一个是市民服务热线12345,北京、上海等一线城市正在尝试使用大模型去解决热线中的一些问题。举个例子,现在有各地都有一些房地产的限购解除政策,在这些政策发布后,市民打电话询问是否具备购买的资格,可以通过自然语言交互的方式帮助用户解决,而不再是用户自己去判断,或者打电话找人工解决。这个过程中,大模型在12345中尝试的解决方向不再是用户提出问题,而是用户授权基本信息和材料后,可以直接反馈给他一些合适的政策,包括操作的方式和路径,这是第一个比较大的变化。


第二个是民意速办。在过去民意速办的核心在于使用大模型进行工单流转。过去,服务人员必须在一定时间内对民意进行反馈。现在有了大模型后,实际上可以首先进行分类,然后像客服的工单一样流转到对应的部门,基于大模型的方式可以快速进行流转。


第三个是公文撰写,它是基于文档辅助生成的能力,帮助政府人员撰写公文,提高工作效率的过程。

以上我们看到政府今年在Q3Q4期间重点在尝试一些落地措施。


1.4 企业如何确定2024年大模型预算

接下来介绍一下预算情况,重点帮助企业用户解决确定预算的问题。

首先是从整体市场来看,大模型的预算从202350亿会增长到2024120亿,虽然看起来很多,但120亿中至少有60%以上的预算还是投在算力本身,落在模型层和应用层的预算还比较少。

2023年相比,2024年有一个较大的变化,那就是2023年没有制定大模型预算,而2024年很多企业明确地在规划过程中留出了大模型预算。据目前的沟通,整体AI预算的比例里边有10%会划归给大模型的一些应用建设,因为底层的算力是共用的。在这个过程中,应用建设从过去的几十万增加到一百万,到明年可能还会涨到三五百万。

预算增加的还有一个原因是在未来的两三年内,大部分的投资将用于开源大模型的底层推理算力部署,以及微调所需的算力。明年将有大量的更大参数模型投入市场,包括一些已经开始规划千亿级参数模型的企业。这个过程中将需要大量的投资,因此明年的预算将重点投入到底层的大模型私有化部署能力建设。

从预算规划的角度来看,建议企业将其AI预算的10%左右分配给大模型。如果AI预算较小,也可以考虑将IT预算的10%用于大模型。另外,我们建议在实际投入预算时,可以从可研课题开始,因为论证成功的可研课题可以直接与合作伙伴共同投入大规模预算,以进入生产环境。究其原因,当前的大模型无论是底层能力还是应用都尚未完全成熟。如果企业内部对于模型的准确性有较高要求,这些问题在实际厂商选型过程中很难解决。因此,我们建议从可研课题开始,并与深入合作的合作伙伴一起,将可研课题中出现的问题全部论证完毕,再进行上线应用。


下面介绍一下可研课题论证的核心方向。

首先是理论研究,因为大模型的能力在不断扩展。其中包括目前热门的推理和Agent能力,以及在企业内部的实践可行性。这些都是理论研究和技术研究阶段需要解决的问题。

然后技术研究,除了大模型外,还需要研究其他模型的融合,包括底层算力的可行性。

最后是应用探索,例如上大模型对客服的需求有何影响,这需要在前期进行探索。虽然从大方向上来看,客服一方面解决了大模型的问题,另一方面也解决了冷启动、上下文联系以及多轮对话的能力问题,但实际上在落地到每一个企业里面还会有很多个性化的应用需求,这些需求在可行性研究课题阶段需要确定下来,同时在需求分析阶段也需要进行确认。因此,我们建议在可行性研究阶段着重解决这些问题,以确保可行性研究论证成功后再投入大规模预算。


1.5 大模型预期的业务价值

下面要讲的是如何包装大模型预期的业务价值。

首先,我们强调的是降本,即企业用户的核心方向是2024年实现降本。因此,我们也建议通过大模型的业务收益进行包装。这里我们举一个核心例子,就是基于Agent进行自动化,上图中通过增加大模型,增加了理解层面和规划层面的控制,而不只是执行层面的控制,因此大模型能够作为一个大脑控制整个任务的分解和执行,从而实现全流程自动化以降低成本。

另一个是大模型+RPA回复社交媒体评论的典型案例。社媒上的评论,包括关于品牌、产品和服务的评论,需要先进行分类。过去的分类是通过规则进行,而如果有Agent最好的方式是通过Agent与内部人员的对话式交互,或者直接输入这些文本,然后基于这些文本,Agent可以理解这个社媒回复应该分到哪个类别。一旦分类完成,就可以进行任务分解。除了社媒评论的类别外,还需要基于用户类别生成个性化问题,因为大模型可以通过社媒上的用户ID对应到数据库中了解用户的基本情况,这样基于上下文可以回复得更准确。以上这些问题都可以在规划和分解阶段由大模型解决。

此外,如何调度RPA,包括调度哪些机器人,都可以由大模型在运行阶段解决。正如前面所述,具体生成的内容,包括文案、字段和表格,都能基于大模型的生成能力实现。因此,完成一整套流程后,可以节省运营人员的精力和数量,同时也可以节省一部分RPA调度的成本,以及文案生成的成本,因此,通过完整的自动化和智能化流程,可以实现降本的价值。这是第一个明确的大模型降本价值实现案例。

大模型的另一个业务价值体现就是强调它的端到端的业务形成闭环,改善最终的效果。企业内部实际存在生成场景和决策场景,当前大模型多在生成场景中应用,而决策场景仍存在缺陷。以营销为例,实际上就是通过大模型和小模型的融合赋能整个端到端的业务闭环,包括人群圈选、营销策略、生成文案和效果监测。

在不同的环节和流程中,场景属性不同,人群圈选和营销策略基本上是以决策为主。营销文案是典型的生成场景。小模型可以基于实际的用户画像判断人群的圈选,效果会更优;而大模型则在策略和文案上有渗透,文案方面比较容易理解,即基于人群的一些特征可以直接生成个性化的文案。


在策略方面,过去企业基于自身积累了大量策略,其中许多策略以文本形式存在,这些都可以输入到大模型中,作为历史策略和其效果的参考。这样大模型可以基于人群圈选提出一些建议策略,这些建议策略过去通常由人工完成,以及基于过去的策略模板或少量的小模型进行,但大部分还是依靠人工操作。

基于大模型的策略建议,一方面可以提高业务效率,另一方面具有可解释性,因为它可以告诉我们为什么要推荐新的策略,这是大模型的一个重要应用点,也是端到端的优势之一。最后通过效果监测,可以明确看出大模型生成的策略和文案是否有效,实现闭环优化。这样我们就可以根据积累的策略,不断调整新的输出,形成新的营销策略基础。

综上,我们建议企业用户在规划时,应从两个方面考虑预期业务价值,一个是实现端到端的业务闭环,另一个是直接降低成本。


02 大模型在企业用户落地路径

接下来的部分将介绍大模型在企业用户侧的落地路径,包括具体的场景规划,这也与企业用户实际的2024年规划直接相关。


2.1 大模型能力建设和应用建设

企业用户落地大模型有两种不同的思路,一种是进行能力建设,另一种是进行应用建设。

能力建设的核心目的是构建企业自有的大模型,目前这方面只适用于数字化预算较多的企业,建议年度数字化预算至少在20亿以上的企业考虑这个问题。而应用建设方面,大多数企业围绕刚才所说的降低成本或体验创新这些核心目的进行建设。这两种建设的投入成本一高一低,建设思路也截然不同。因此,我们所提及的两种建设方式,都是企业用户使用大模型的方式,但适用范围存在显著差异。


2.2 大模型在企业中的落地路径

在落地过程中,主要分为四个阶段,第一阶段是探索可研,第二阶段是全面规划,目前领先的企业基本上处于全面规划阶段,明年将进入试点速赢和全面推广阶段。

在探索可研的阶段,具体的建设工作可分为三部分,除了应用建设和能力建设外,还有一个非常重要的方面是组织建设。组织建设的思路和方式与过去的AI模式大致相同。因此,我将重点探讨应用建设和能力建设的具体内容,并将提及组织建设的一些过去AI的经验。

在探索可研阶段,我们建议企业选择的应用建设场景应该是落地速度快、成本不高且能让公司内部感受到大模型实际应用价值的一些场景。因此,在应用建设的早期阶段,企业的应用场景包括客服、知识库问答、办公、研发和数据分析等,这些都是我们前面强调的重点应用场景。

在这些场景中,最优先推荐的是知识库问答,这是企业内部全员都能使用的产品,也是员工对于大模型的接受度和理念会比较容易推广的一个方向。因此,在探索可研的应用建设阶段,建议选择一些全员内部都能用得到的应用场景。这样一方面可以让全员接受大模型的理念,另一方面也可以为后面实际上线的应用场景的落地带来更好的价值。同时,这也为IT部门与企业部门的前期基础培训和基础大模型知识的普及提供了良好的基础。

底层的能力建设则主要基于开源的模型,如GLMLLaMA,核心强调的是持续的微调和迭代,因为对于企业用户来说,尤其是早期的一些应用其实并不需要那么大的参数,当前模型的参数量级是足够的。因此,关键是进行持续的微调,这个过程中如何提高效率,就包括持续微调过程中,像是LLMOps这样的中间层工具来解决。


我们目前看到了更新频繁度较高的微调进展,已经能实现半天一次,因为在微调过程中仍然会有灾难性遗忘和能力缺陷的表现,所以微调的版本并不一定每一个都能真实地应用到生产环境中。因此,如何以天级甚至半天级为单位进行持续的微调和迭代,并保持这些版本的持续有用性,这是企业在探索可研阶段需要解决的重点问题。因为只有这样在建立知识库和微调过程中,才能持续跟上企业内部的应用场景,包括对客户的应用场景。因为大模型中的知识即时性问题和实时性问题存在很大挑战,所以我们建议在能力建设阶段解决这些问题。

在这个阶段,因为业务部门参与不多,我们建议IT部门带头,数据团队参与其中,尤其是在初始化的数据和预训练的高质量数据方面,数据团队要重点解决问题。在全盘规划阶段,整个公司需要落实一些理念和概念,建议用全端规划的思路在全公司落地,而落的过程中主要目的是,首先要有一个全公司的场景图谱,这个场景图谱我们建议分成三层,用例,场景,和端到端的流程。

那么为什么要区分成这三层呢?首先,大模型能力建设最终目标实际上是建立一个端到端的流程。其次,当前大模型在实际落地时,不一定能做到一个场景集,往往是一个用例集。例如,在协同办公中,大部分情况下使用的都是用例集,所谓用例集就是在协同办公过程中,用户希望看到采购流程的进度启动下一次采购的招投标会议,这是一个典型的用例,但在整个场景中使用大模型的地方并不多。

第二个用例是基于语义理解去调用过去的资料,这过程中可能完全不需要大模型。第三个用例是创建新的会议,这些会议基本上都是采购招投标会议,创建会议的过程中是有模板的,不一定需要大模型。

因此,我们强调用例的作用是为了更清晰地确定在整个过程和场景中哪些地方可以使用大模型,其他地方是否可以使用大模型来渗透思路和方法,以确保整个场景包括未来的流程都可以使用大模型。这是我们建议企业用户在构建场景地图时需要注意的一个点。其他建议是建立落地规划路径,方法是左边是场景的价值,从体验类的降本增收到变革价值越来越高。


2.3 大模型未来场景规划

我们建议企业一年内在规划阶段重点实验以下两类场景。


第一,探索可研场景中的知识库、文案、等,这些场景的特点是验证速度快、成本低,但无法形成流程。例如我们刚才讲的只是营销功能中的一个点,无法形成整个营销流程,文案也是如此。

第二,试点速赢阶段规划能覆盖全流程的场景,如数据分析、智能客服等。智能客服从前端客服的培训,到全渠道接入,机器人客服,再到人工客服,最后质检以及统计分析,这个全流程中都可以使用大模型,这样的端到端覆盖全流程的模式能够改善最终的业务效果和降低成本。

因此,我们建议在试点速赢阶段,应重点选择那些能够覆盖端到端流程的场景进行应用。此外,在能力建设方面,当前的主要思路是部署千亿级模型,当然,这一思路存在较大落地难度且周期较长,预期这个落地过程可能会在2024年初有一些进展。


从未来的角度来看,我们建议企业在明年考虑两个问题。

第一,目前的能力建设和应用建设是两条完全不同的道路,没有太多交集。然而,能力建设和应用建设应相辅相成,因为能力建设是长期目标,能够支撑应用建设,而短期的应用建设也需要效果以推动大模型的持续落地。因此,我们建议企业在2024年开始,尤其是中下旬,考虑自己的应用建设和能力建设之间的关系。此外,从项目切入的角度来看,企业可以考虑从应用建设开始,逐步建立能力建设的基础思路。

第二,在大模型应用建设和数据能力建设之间建立联系,因为模型的准确度很大程度上依赖于知识库的知识工程水平,而知识工程又与数据治理密切相关。在这个过程中,我们也建议企业在大模型应用建设时,应同时考虑自身数据能力建设的问题,特别是过去的数据能力建设中的一些负债问题,这些负债可能在大模型应用建设中成为潜在的风险,这些风险也应在规划阶段得到重点解决。





赵东山


年入10亿的创业公司怎么做大模型


大模型是中型公司的机会,它既有比小公司更多的资源,又有All in的决心。


2023年春节后,APUS创始人、CEO李涛在公司提出一项明确的要求——全员必须All in人工智能。该要求严格到,连行政人员也必须考虑人工智能如何改进自己的工作。李涛甚至提出要将员工使用人工智能的程度与涨薪挂钩。

过去的近10年中,APUS以手机系统和软件出海见长。面对老板这样的要求,一部分员工自然是懵的,他们完全不理解李涛到底要干什么,就像李涛第一次见到OpenAI创始人Sam Altman时,他本人也完全没想到会有一个如此宏大的画卷摆在面前一样。

2019年,沈南鹏率领三思院的一众创业者学员前往硅谷游学,这一行中,李涛、王小川、王兴、张一鸣等新锐企业家都在列,游学的重要行程就是拜访很多硅谷的大佬,如雅虎创始人杨致远、Zoom创始人袁征等,其中的一站,他们见到了Sam Altman

Sam Altman当时给大家演示的案例,是人工智能在游戏场景中的应用。当时大家听了都觉得很酷,但是没有想到它的应用场景有这么大。李涛向《中国企业家》回忆。


时间来到202211月,ChatGPT的问世让李涛有种后脖颈发凉的感觉,惊鸿一瞥是他当时的感觉。

李涛惊讶地发现,ChatGPT颠覆了以往信息交互的方式,仿佛在跟一个真人在交流,可以连续追问,它用对话机器人的方式不停给你答案,它甚至知道你在想什么。而且,ChatGPT门槛极低,很多人都可以用。这些都给了李涛极强的冲击力。

从那一刻起,李涛深刻地意识到一场新的技术变革已经到来,一场新的狂欢即将开始,而作为最早意识到这一趋势的群体之一,李涛也开始了自己的大模型探索和准备。2023418日,APUS发布自研的千亿参数规模多模态人工智能大模型“AiLMe”,并在近日开放公测。

在亢奋地投身大模型之前,李涛身陷一种巨大的痛苦中。用他自己的话说,找不到出路。

过去几年,在疫情和全球局势变化等客观环境之外,李涛明显感觉到互联网时代尾声的到来,他眼睁睁地看着身边的人去炒比特币,去做加密货币,随后又加入Web3、元宇宙,转行一波接一波,在李涛看来,本质是大家都找不到出路


其实,就在几年前,APUS才刚完成一次转型。

2014年成立到2019年左右,APUS一直是一家主做手机系统和工具类应用软件开发的企业,其主要市场在东南亚等新兴地区和国家。2019年后,李涛越来越强烈地意识到,全球化就是这一代中国企业的宿命。除了东南亚等市场,还有很多发达国家市场有待挖掘,如美国、欧洲、日本、韩国等等。

然而,面对发达国家市场,势必无法再用原来的工具和系统,否则在这些市场无法得到竞争优势。为此,过去几年,APUS的组织能力建设和团队基因发生了变化,除了原来工具类的产品,李涛率领团队在内容类、交易性、社交类产品方向上做了大规模的尝试,并涌现出PickUCutCut等小爆款。

不过,那些小的成就根本无法掩盖李涛对移动互联网红利殆尽的感伤。ChatGPT的出现,才让李涛感觉看到一道曙光。

在做内容类产品的过程中,李涛接触到大量的用户需求,仅以旗下产品CutCut所在图像领域为例,用户就会产生自动化修图、变老、变年轻、性别转化等需求,而为了满足用户的这些需求,就必须引入新的人工智能技术。借此契机,APUS完成了人工智能能力第一步的积累。


等到体验过ChatGPT之后,其所展示出的易用性和亲民性,让李涛再次意识到人工智能技术能力在这中间起到的判断和衔接作用。

202212月,李涛在公司内部召集了一个大模型团队,并快速立项,将重心全部转移到人工智能和大模型上。李涛还下了三个结论:第一,通用人工智能时代即将到来,而人工智能时代的操作系统就是大模型;第二,APUS一定要有大模型;第三,必须得是自己做。

今年3月,APUS专门分拆成立人工智能研究院,由研究院首席专家张旭负责。张旭本科、硕士、博士均毕业于清华大学,也是此次大模型的主力之一。



张旭告诉《中国企业家》,AiLMe采用目前业内主流的Transformer架构,同时设计了一套插件式架构,可以自主学习和使用工具,这些工具以插件的方式接入到AiLMe平台中。而在文本、图像、视频、音频的生成部分,AiLMe则沿用了目前业内主流的扩散模型(Diffusion Model),并继承了开源社区的生态。

2023418APUS发布AiLMe时,多少有点让人惊讶,因为这是继百度之后,第二个中国公司推出的大模型。

李涛告诉《中国企业家》:背后无非两个因素,一个是意识和决心的问题,另一个是资源和能力的问题。APUS并不是因为快,而是因为早。就像百度在2019年就推出文心大模型,李涛在202212月就集公司之力打造大模型。

李涛关于大模型的意识和决心,除了2019年见过Sam Altman种下的种子外,还因为在过去20多年的从业经历。

在创办APUS之前,李涛曾在大唐电信做过微波通信,之后与周鸿祎一起创业做三七二一,后被中国雅虎收购;随后他加入奇虎360担任高管,并成功推出手机安全卫士、手机助手等爆款产品。

李涛清楚地知道,一个新的技术时代对于操作系统来说意味着巨大的红利。他亲历了以windows+IE为操作系统的PC互联网时代,以及苹果+安卓为操作系统的移动互联网时代,他不忍心自己再错过即将到来的以大模型为操作系统的通用人工智能时代。

何况,在移动互联网出海时期,李涛已经用速度证明过一次自己的判断。APUS创办于2014年,李涛是最早将出海带到中国创投圈的创业者之一。那时,基于Launcher桌面系统、清理安全、加速等工具类产品,APUS实现了上线1个月超千万,6个月破亿的增长成绩。


谈到资源和能力,APUS虽然不如大厂的资金雄厚,但李涛认为,人工智能大模型是中型公司的机会,因为它既有比小公司更多的资源,又有All in的决心。

李涛透露,目前APUS年收入在超过10亿元人民币的规模,公司账面上也趴着10多亿元现金。此外,目前APUS在全球用户量已超24亿,覆盖200多个国家和地区。

此外,APUS动作够快的另一重因素是,采用了开放的研发模型。在APUS人工智能研究院之外,APUS还跟中科院、清华大学、南洋理工大学、香港理工大学等高校实验室形成开源的项目组,让大模型的搭建快速落地。

李涛将影响大模型质量的要素分为4类:算法、算力、数据和场景。在他看来,如果将决定大模型效果的因素按照重要性来排序,应该为:训练数据质量>训练数据规模>参数规模。

在技术路线上,APUS采用大参数和大数据来训练中等规模模型。

“AiLMe1000亿参数的模型,但背后的数据其实是2.2万亿的token,他们原来都是追求所谓大参数,APUS在训练上略有不同,我们的场景依赖度会更高。李涛告诉《中国企业家》。

为解决算力问题,APUS在郑州和新加坡分别建设了两大智算中心,在自建GPU服务器算力外,APUS还跟腾讯、阿里、亚马逊等服务商进行租用和采购,与第三方的算力协同作用。

在数据方面,APUS大模型的数据来源有4个:第一,公开的行业数据;第二,互联网的公开数据;第三,专门用于训练人工智能的数据集;第四,真实的用户需求数据,即每天有上百万人在使用产品时产生数据和互动,该部分在模型训练里的权重也非常高。

在李涛看来,ChatGPT的震撼一半归功于OpenAI团队,另外一半得归功于全球的用户,因为是全球的用户打开了ChatGPT的想象空间,开启了思维模式。


相比大家对算力的焦虑,李涛更看重高质量的数据。

这通常是真实用户的真实需求和问题,我们都脱敏过,不会涉及数据隐私安全,更关注用户的问题和需求,至于你是谁并不重要。李涛解释,比如,APUS旗下智能问答大师产品每天产生几十万的用户问题,这些都可以用来训练数据和模型。

针对具体应用场景,APUSAiLMe大模型内蒸馏出文本、图像、视频、音频四个垂直领域精炼模型,并基于此开发出直接面向用户的智能问答大师、简笔成画、墨染、Star NightKJV Bible NowPicPikAI产品。

在李涛看来,应用场景最大的好处是两个,第一,提供高品质的数据;第二,提供实时的数据。

在商业模式上,李涛采用短期to C、中长期to B的模式。他认为,to C很容易形成闭环,用户自发付费,更灵活也更有弹性。但中长期一定是to B,因为一家公司所能覆盖的场景一定是局限的,需要更多的行业伙伴共同建构。未来它将无处不在,所有的服务都要用到它,整个市场将是10万亿美元以上的规模。

与此同时,李涛还预言,未来很多行业服务都要通过在大模型基础上蒸馏出精炼模型来支撑,而不是用大模型全局支撑,因为这样成本太高了,一个大模型会蒸馏出若干个精炼模型,用来支撑不同的服务。


从春节到现在,APUS内部员工从部分人不解、一些人不信,到慢慢地大家都去尝试,一切都在悄悄发生变化。如今,APUS几乎所有的员工已经有了采用AI工具的意识,李涛也提出了如果员工借助AI提效30%涨薪10%,提效50%涨薪20%,提效50%以上涨薪30%”的允诺。

在此背景下,APUS内部正在分成三批人:一批人专注做大模型;一批人专注把大模型用到C端产品上;另一批人就是职能部门的员工,可以采用任何AI产品。内部员工的产品选择,也正形成一种隐形压力,比如李涛可能会问:你看同事都不用你的产品,你是不是得努力?

过去的20多年,李涛亲历了360的起伏,也见证了字节跳动、美团等新巨头的崛起,他直觉判断通用AI大模型会成为未来20年的主流,这是一场全新的技术革命,既然我都看到了,就必须要跑在别人前面。

过往的经验告诉李涛,任何技术变革前期都是巨大红利期,也是对社会创造价值最多的时间窗口。对于做企业的人来说,永远要捕捉这个时代的潮流。李涛表示。




潘春晖


企业怎么用上AI大模型


今年,OpenAI的大型语言生成模型ChatGPT刷爆网络,以其高情商对话、生成文字文章、生成初步代码,将遥不可及的AI技术突然带入到大众面前,点燃了AI市场,随后国内外各大科技企业都积极发力各自推出相关的技术、平台和应用产品,引爆新一轮的AI 热潮。七月,国际权威研究机构Gartner发布了《Hype Cycle for Data, Analytics and AI in China, 2023》(2023中国数据、分析与AI技术成熟度曲线报告),生成式AI、国产人工智能芯片在或接近膨胀期望的峰值,尽管不太成熟,技术的成熟后必定会走向市场化的应用,在25年内将被市场主流采用。

ChatGPT 代表了AI通用大模型的最新进展,显示了大模型可体验的能力,具有丰富的通用知识、快速学习与推理能力。我参与项目的一些客户,对AI都采用了积极的拥抱策略,开始AI应该的布局,部分行业龙头企业已经开始与国内大厂合作,进行AI的探索应用,而更多客户在使用ChatGPT中,关注与思考人工智能大模型如何在企业中进行应用。

六月,IBM内部也组织全球员工对推出的Watson进行学习和试用,全球组队对Watson一系列模型进行测试与挑战,不断加强员工对AI技术的了解以促进市场推广与应用。


(一)AI在企业内应用的三个阶段(三类场景)


我认为AI技术应该比区块链、元宇宙与数字孪生等技术更快跨过泡沫低谷期进入到稳步提升期。企业应用AI应该有三个阶段,一个阶段是AI作为助手,再一个阶段AI作为代工,再一个阶段是AI作为参谋。

1AI作为助理,更多是应用在企业员工的日常工作中,以AI作为助手帮助员工提高效率,主要体现在文档报告撰写、信息搜寻推送、初拟公文合同等牵涉到文本、音频、图像、视频等基本内容的初稿生成,企业内账单/合同信息的提取,复杂不规则格式报告的信息提取,以及来自多个不同数据源且具有不确定结构的信息提取与推送,这将极大的提高企业办公效率,例如国企的领导讲话稿和年度工作报告等需要秘书熬夜反复修改的稿件可能会得到极大效率提升,大型集团基层单位向上级单位不断要求进行报表与数据编制的表哥表妹们的工作也将得到极大的提效,再有就是利用AI安排个人工作与旅行行程,AI将作为企业管理层员工标配的贴身小助理。

2AI作为代工,更多是利用AI的专业能力去替代企业内相对简单而标准的工作,特别是在企业的共享中心方面,例如客户服务中心、账务处理中心、物资采购中心等机构上,共享中心建立的本意就是将专业的工作标准化交给专业人员去做从而提高工作的专业性和效率,降低人工总数、降低出错率等,而这正是专用模型的优势,目前在银行业、保险业务都开始探索聊天机器人来提供自动化客户支持,回答常见问题、处理交易请求和提供个性化建议,财务规划和咨询也是AI应用的场景,根据客户的财务情况和目标,提供个性化的财务规划,帮助客户制定预算、储蓄计划和投资策略等。企业内部还有大量的合同录入、文件处理和合规性检查等,也可以使用AI来自动化处理以提高效率和降低成本。

3AI作为参谋,用企业经营管理各领域的实时数据训练AI后,AI能在专业领域帮助企业管理者洞察企业经营状态和风险。例如客户信用风险评估,AI在线监控和分析客户数据,结合信用历史、财务状况和行为数据,用于更准确地评估客户信用风险。在供应链管理方面,AI作为参谋,在线监控企业供应链库存和上下游供应商信息,再结合市场行情的预测,形成企业生产计划调优和库存管理。对于保险行业,在客户信息合规性管理下形成客户交叉销售的建议等。


(二)企业AI应用的三大误区


面对当前铺天盖地的AI产品与介绍,企业在AI应用上容易有三个误区。

1)、AI是万能的

媒体宣传有时过度神化AI,甚至认为未来要超越人类建立硅文明时代,我认为无限夸大AI的能力是一种误导,就目前AI采用的神经网络算法是一种模仿人类神经系统构造的计算模型,抛开复杂的算法公式,本质上还是一种语言转换后基于概率进行的选择结果输出,可以理解为鹦鹉学舌,鹦鹉是反复听到这句话,就输出这句话,但并不知道这句话是什么意思,更不知道这句话背后的含义。通过训练可以让AI无限的逼近与人脑思维产生相同而正确的输出,但本身并没有人脑一样的思维、逻辑、情感等,因此,至少现在的模型技术,我不认为通过学习就能成为可怕的超越碳文明到硅文明到来。所以,企业AI应用,应该选择合适的场景训练AI去解决孤立的、专业的问题。

2)、企业AI应用模型越大越好

大模型更多可以定位为通用模型,通常包含数十亿到数千亿个参数,这些参数使得大模型具有很强的表示能力,可以捕捉丰富的数据模式和特征,在自然语言处理、计算机视觉和语音识别等领域更加出色;小模型更多可以定位为专用模型,小模型具有更快的训练速度和推理速度,通常更适合资源受限的环境,并且可以在某些情况下提供足够的性能解决企业局部、专业的问题与应用。企业AI的应用是要最小的代价解决最大的问题,因此,需要根据具体的应用需求和可用资源来选择使用大模型还是小模型,未来实际的企业AI应用可以包括一个大模型和多个小模型来形成企业AI应用群,或使用模型压缩和优化技术,将大模型压缩为适合于小模型部署的版本,以在性能和资源之间取得平衡。

3)企业AI应用可以找到开箱即用的产品

除了是市场上开放通用的ChatGPT,企业AI应用要放在企业内,在企业的数据和场景下帮助企业解决问题,因此,没有所有企业开箱即用AI模型或产品,针对每个专业领域和业务问题,企业通常都需要采用与之前不同的 AI 模型,要放在本企业的场景和数据中进行训练,才能逐步变成企业的员工。因此,未来的企业信息部门招聘数据科学家来训练各种模型也许应该是一种常态,企业养一个专业模型短期内并不比养专业人员更便宜。当然,这也不排除未来逐步有受过训练的行业专用模型作为产品销售,AI领域的行业预训练模型就相当于软件领域中的现成方案。这些模型可以为启动新的 AI 项目提供更加行之有效的切入点以降低企业再训练的周期与成本。


(三)、企业AI应用需要关注的四个方面


企业AI应用是企业数字化转型中的一个重要手段和趋势,企业应该积极的了解和拥抱AI技术在企业数字化转型中的应用,从助手到代工再到参谋,逐步发展,逐步打造企业新的竞争优势。企业在采用模型和生成式AI时,需要着重注意四个方面。

1)、以价值为导向,面向企业核心应用

企业AI应用应该以价值为导向(而不是技术或模型为导向),优先聚集到企业核心业务上,以确保AI技术不仅仅是一项技术投资,还能够为企业带来实际的业务价值。首先要选择与识别核心业务及AI能解决问题的典型场景开展示范工作,确定企业内部的关键问题和痛点,确定问题可能通过AI技术得以解决,并且能长期持续产生成效。其次,针对具体场景选择合适的模型,根据业务需求选择合适的AI技术和算法,这可能包括机器学习、深度学习、自然语言处理、计算机视觉等,选择的技术与模型应能够解决业务问题,并且在资源限制可控下开展,而不是一味追求大模型。此外,建立跨组织的训练团队也是至关重要的,包括数据科学家、工程师、业务分析师和领域专家的跨部门团队,以确保真正解决业务问题而不是玩技术。

2)、融入现有信息技术架构中

AI必须融入企业信息技术架构中才能训练成为企业自己的模型、解决企业自己的问题,因此,首先要明确数据是AI的关键驱动因素,确保企业拥有高质量、完整的数据,并建立数据管理和清洗流程,企业如果已经建立了数据治理体系,并对数据质量一直有关注和改进,这无疑是为AI企业应用奠定了良好的基础。其次企业AI应用不应该是孤立的,应该与企业现有的系统进行结合,企业原有信息技术平台中的数据分析、指标监控等本身也应该是广义的AI应用的一个部分,再有是AI作为企业代工,其工作过程应该与企业现有业务工作流程结合,成为输入输出的节点,而不是一个新的孤岛。

3)、高度关注数据安全与合规

企业AI应用,特别是企业2C面向客户的应用,数据的安全与合规是需要高度重视的,AI本质上是鹦鹉学舌AI如果泄露企业和客户的信息,或不讲伦理道德的胡说八点,将给企业带来致命的风险。中国是目前AI应用领域法律监管最严的国家之一,中国监管机构从2021年起加强了对人工智能的监管,发布了《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》和《生成式人工智能服务管理暂行办法》三部重要的部门规章。这三部规章都可能适用于向中国境内公众提供的生成式人工智能服务。而在未来,中国将采取包容审慎的分类分级监管原则,中国还可能制定层级更高的《人工智能法》,并落实科技伦理审查制度,将制定相应的分类分级监管规则或指引,因此,企业在集成AI时必须采取有效措施来保护敏感数据,确保数据隐私、模型偏见和法规遵守。


4)、平衡好成本规划好算力


企业AI应用也是一个烧钱的过程,AI训练是需要大量的投资,AI的应用也是需要足够的算力来支撑,这是企业AI应用前提。企业在AI应用前,一方面要规划清楚业务场景和长期价值,另一方面要合理选择模型,过度的大模型会导致训练成本几何倍上升,日常应用中的算力消化也是巨大的,从企业应用的角度AI投资与回报是不得不算的帐,因此,想清楚场景与价值,选择好模型,确定好算力,这都是企业AI应用前必须做好的功课。

总之,企业在AI应用前应该首先进行AI应用发展规划,从基础大模型选择、数据规范与安全、应用场景识别、大模型调优、大模型与小模型协同、向量知识库构建、算力评估与策划、业务集成方案、企业级AI开发与运行平台、AI治理与合规等方面进行规划,以引领AI在企业中的应用发展和持续价值兑现。








闲暇研读 @ 亮点课题




点开(总)新利益课题组

点开(总)罗卫国奋斗史


点(01)人工智能课题组

点开(02)大模型课题组

点开(03)碳中和课题组


点开(04)学习谷课题组

点开(05)再策划课题组

点开(06)基本法课题组


点(07)人文管理课题组

点(08)科技时尚课题组

点(09)社会责任课题组


点(10)跨境电商课题组

点(11)外脑智库课题组

点(12)乡村振兴课题组



点开(总)图书中国亮点

点开(总)新利益来源考


1、每月讲一次面授课 2、每季建一个学习谷 3、每年开一次学友会 4、每五年出一本亮书 ©版权所有:罗卫国(北京)咨询有限公司 备案号:京ICP备16014639号-1