您的位置:首页>>新闻中心>>行业资讯

既要懂AI 还要懂变现

行业资讯 / 2023-09-23

如果仔细观察会发觉,大家仿佛很少再提“AIGC”,取而代之的是“生成式AI”、“LLaMA 2”以及“AI大模型”等新词。


这场由“Chat GPT”引发的内容生产力大革命,曾经慢慢走出了单一的“对话式场景”,并疾快延伸到商业使用的各个场景,特地是“AI数字员工”的出现,更是打响了互联网大厂AI大模型使用第一枪。

“企业需求快快建立‘收入增加飞轮’并经过AI建立愈加高效的组织协同和作战能力。”这是见实和360 集团副总裁、N 世界担任人梁志辉深聊时的一段话。

独一无二,梅花创抛创始人吴世春正在同见实深聊时也曾道过类似观点,他认为AI 团队要念拿到融资,必须先挣到钱

可见,面对这波新的AI大浪潮,行业仿佛愈加克制和理性,当然,这也和稍显窘迫的大环境密切相关。

作为一名互联网老兵,梁志辉经历了从PC互联网到挪动互联网的残缺周期,这波AI浪潮的出现,不由得让他觅回了刚进入PC 互联网时代的感觉,只是这次变革的快度远比上次快。

对此,梁志辉喜愁参半。喜的是,能正在几十年短暂的职业生涯中,同时经历两次行业大浪潮,并跟随360这家企业冲正在时代最前沿;愁的是,一大波不举动的企业即将被加快淘汰,部分看似牢固的商业模式也正在加快崩塌。

深聊中,梁志辉分享了大模型正在企业数字化过程中的使用和将来发展趋势,并称这次不可逆的底层技术大变革充满了机逢和应战:

不管企业大小,接入AI技术的门槛将越来越低,大模型能够为企业带来十倍快的晋升,但这种晋升并不会立即表现正在营收上。因此,企业正在接入大模型时需求权衡好ROI,确保大模型能够为企业带来实际的经济效益。

这也是为什么360会选择切入数字员工领域的缘由,企业该当先制造一支具备数字化念想的“AI铁军”,率先建起一支懂AI的团队,大概才能正在将来商业战场上提早占领有益地势。

一边是百年之未有之大变局;另一边,大模型使用也面临着一些应战,如数据安全、成本控制技术门槛等。

特地对于中小企业而行,如何正在保证成效的前提降落低使用成本是一个亟待处理的问题。基于此,360提出了“人工+大模型教问库+AI”的组合策略,确保数据安全的同时,还能大大降低企业自建大模型的成本。

如今的大模型曾经成为企业进步效率的新利器,资本、用户和场景都发生了翻天覆地的变化,如果仍然坚持过去的产品和项目,那么报答率肯定会大打折扣。企业如何拥抱新技术,不断晋升本身的数字化能力,以当对市场合作带来的应战呢?

正在明天(9月20日)的AIGC大会上,我们约请了梁志辉一同来现场交换,欢迎你正在文末报名或点击菜单栏报名,到时一同面对面交换更多。接下来,让我们回到对话现场,听听360 AI大模型的落地与实践,大概会给您正在AI布局上带来新的参考。如下,Enjoy:
360 集团副总裁、N 世界担任人梁志辉

01

巨变:局部10倍快增加

360开始“猛扑”AI数字员工

见实:接入大模型后,企业效率普遍晋升多少?市场反馈如何?


梁志辉:市场对AI的欢迎程度实际上比我们设念的更强烈。今年3月,Chat GPT引发AI浪潮之初,大众对AI有一种科幻的设念。我们切身的领会是,由于大模型业务我们接触了很少逢到的化工企业客户。技术变革的同时,也出现了一批正在长尾端的高价值客户。

据观察,接入AI后,以前 4 个人的工作可能只需求1人就能完成,这意味着,企业能够吞吐更大规模的业务量。然而,实际情况可能并不乐观,更多老板可能会选择先优化员工,固然没有经过AI接到更多订单,但最少能够经过AI降低企业员工成本。

我们内部有一种观点:AI是企业的发展优先权

以前,采用数字化工具能够明显进步企功绩效和效率,现正在轮到AI领域。

大模型让我们教会沉新审视现有业务。正在内容理解方面,AI能够帮我们进步十倍工作效率,但企业营收能否会由于局部10倍快增加而增加,仍然需求一段时间检验。

见实:不管企业大小,接入AI技术的门槛正在逐渐降低,你认为企业将来的决胜点会偏向于哪?产品、服务还是品牌?

梁志辉:诚然,技术壁垒曾经被打破,很多开源软件和社区。企业如何快快建立“收入增加飞轮”以及如何经过AI建立愈加高效的组织协同和作战能力变得非常主要。


一方面是商业模式的创新,另一方面则是向内看组织协同能力。

这也是为什么360会切入数字员工的缘由,只要员工率先完成AI能力的升级,只要一支具备数字化念想的“AI铁军”才能正在将来的商业战场上更快占领优势地位。

见实:360 布局大模型业务是何时开始的?定位是怎样的?

梁志辉:实际上,360很早就开始涉脚人工智能领域,特地是深度人工智能领域,2016年开始组建360人工智能研讨院。今年3月29号正式发布360AI大模型,按照我们创始人当时的道法——把刚出生的孩子抱出来让大家看看


今年5月,360发布了针对to B市场的千亿通用大模型,并正在多个行业成功落地使用,特地是企业数字员工方面的使用,是当前的主营业务;到了六七月份,发布360大模型行业联盟以及企业大模型处理方案。

目前,以企业数字员工为出发点,我们曾经组建了面向To B和To C两个不同领域的大模型团队进行研讨。其中To B业务中的AI数字人和AI数字员工等生成式AI产品是当前开发的主力军。

不只如此我们也有部分 To G 业务,也会有和合作伙伴共同完成一些垂直大模型,基本上覆盖了大模型领域的上中下逛,但“安全”照旧是360的核心关键词。

见实:和同类型经过大模型技术做数字员工的企业相比,360作为协同领域的新人具备哪些优势?

梁志辉:不断以来,360占领着国内办公电脑最大的市场份额,具备C端使用场景与B端安全经验,如,360安全导航首页、浏览器搜寻等这几个主要产品为我们带来了大量的关心量和使用量。


上周,我们发布了AI浏览器和AI搜寻功能。正在这个过程中,潜移默化的让 C 端用户经过低成本以致免费的方式使用大模型的技术,B端企业也能够经过性价比更高的SaaS处理方案,选择月租的方式完成大模型商用。

02 

实践:高效自建大模型

“人+教问库+AI”三方协同

见实:正在 To B业务的数字员工业务中,必定会涉及大量企业内部文档或数据,数据安全问题能否会成为影响效率的阻力?你们是如何处理的?

梁志辉:确实会涉及到,但也要看企业的本质。我们会分三类企业来看:


一是,绝大多数中小企业,他们可能没有太多机密数据,也不会把出售数据放入大模型进行计算,这类企业,只需提供一个专有的数据空间,实现数据隔离即可。

二是,规模较大的企业,普通都有本人的音讯安全管理规定和内部请求,他们不太可能将内部数据存储正在公共云上,即便是专有云环境也有疑虑。

因此,我们会提供一个“大模型教问库”处理方案。企业能够将一切需求大模型处理和访问的数据放入这个教问库中,这个教问库能够正在企业内部环境中部署为云服务,仅正在发问时才与大模型进行部分交互。

从成本角度看,配放独立的大模型推理节点成本相对较高(一台约150万),并且一台推理节点一般无法满脚一切需求,教问库的中转策略是相对而行“高质价比”的处理方案。

三是,高度保密的企业,准绳上他们连简单的交互也是不答当的,正在这种情况下,我们会提供一个相对低成本的独立大模型推理节点,并与大模型工具捆绑出售。

见实:企业需求提供多大数据量才能实现智能化?接入大模型并使其运转,需求多长时间?

梁志辉:我们曾为一家对数据保密请求极高的企业提供服务,大约花费了一个半月时间,对于企业级的大项目而行,时间周期刚刚好。


数据量的需求因企业需求不同而异,对于某些具体任务,如营销写稿,可能提供3篇文章即可;但对于大型企业的数据协同,那可能就需求提供数万份文档

见实:那如果念达到Chat GPT的智能程度,需求满脚哪些硬性或软性请求?

梁志辉:国内大模型目前基本都是自研,备案制度也曾经不答当套壳。所以,正在具体使用中,你可能发觉国内产品不如海外产品,这背后至少受三方面影响:


一是,缺乏对大规模超算核心的运营和管理经验。算法实际上是开源的,大家缺少的是实际经验,使用1000张显卡与1万张显卡会产生完整不同的问题,所需的基础计算核心架构也会有所不同,这些经验只能经过实践来积累。

因此,懂得如何建立硬件架构以支持上千以致上万张显卡的人才就变得非常主要,这方面教问国内厂商仍然需求多交教费,多实践才能控制,只需有一个人控制了关键教问,国内的进建快度会很快。

二是,数据要素。Chat GPT的确有先发优势,他们的数据锻炼样本是国内厂商视尘莫及的,国内的优势是离用户场景更近。实际上,大模型锻炼数据量并不是越多越好,而是数据质量越高越好,一些高质量的文本,如代码、论文和法律文书,才是真正能晋升大模型逻辑推理能力的内容。

有些人可能误以为百度揭吧或知乎上的内容是高质量数据,但正在实际操作中,这些平台可能包含大量不相关的音讯,对大模型的逻辑处理能力无益,即便是知乎内容,很多内容也算不上高质量。

还有一部分人会拿聊天对话来锻炼,也是非常低效的,聊天记录能够协帮大模型获得愈加口语化的表达,但无法真正拿来处理问题。核心缘由是人与人之间的对话常常是主观无逻辑的,AI很难梳理出背后的对话逻辑,除非单人的样本量脚够大,但这照旧很难实现。曾经有一个AI聊天机器人正在上线后,由于接受了推特和Facebook中大量负面评论的锻炼数据,几天后它教会了道不当行论并采取了不当行为。

三是,没有脚够多的显卡资源,AI算法高度依赖高端显卡,设备采买的价格比以前处放计算和存储稠密型数据核心的设备要高出大约5到10倍。所以,大家都正在关心“国产高容量显卡”的研发进度,一旦研发出来,成本将大幅度降低,国内AI 大模型的进展将实现质的飞跃。

我们非常期待华为能降低这方面的价格,或者随着其他中国厂商加入,能否将价格降低一半或降至四分之一,这一天的到来令人期待。

见实:目前,大模型处理哪些工作会比较低效?

梁志辉:大模型正在内容生成和理解方面,比我们见过的一切技术方案都强大很多,但如果要让大模型完成一些类似音讯抽取能力或者强大推理能力的工作,目前来道仅靠大模型的一次交互是无法实现的。


比如我让大模型编写一份行业研讨演讲,如果人工操作,大约能拆出1000 多步,如果让大模型经过Auto GPT的方式进行推理拆解,分步施行,可能处理一半时就会断掉,AI很难理解这1000多步的内正在逻辑,以致于间接中断生成。

特地正在大模型“幻觉”问题上,当你问它一个问题时,它可能会“不懂装懂”,编一个新故事来回答你。例如,我尝试过让GPT帮我引荐山西饭馆,他就编了一些我从未听过的地方,实际上是山西饭店,这里就出现了一种幻觉。

见实:为什么会出现幻觉?

梁志辉:主要是大模型基于的是大量语料进行锻炼,但大量语料无法与搜寻引擎相比。引擎是基于现实世界,有人真正写过。


固然有很多现实音讯,但我们会发觉大模型正在涉及到一些他不了解的现实音讯时,会立即开始胡编。

念让大模型完成复杂任务,仅靠一个prompt 是无法实现的,即便给出一个可编程的处理方案,大模型正在一次交互中仍然无法处理问题。所以,我们正正在考虑经过AI Agent(人工智能代理,一种能够感知环境、进行决策和施举动作的智能实体。比如,告诉AI Agent帮忙下单一份外卖,它就能够间接调用 APP 选择外卖,再调用支付程序下单支付,无需人类去指定每一步的操作。)的处理方案,让大模型专注于他最擅长的事

见实:这种 AI“幻觉”可能是大量数据“出现”出的结果,但有时这种“出现”数据反倒成了冗余音讯,这么理解对吗?另外,请您具体展开讲讲360正在AI Agent方面的实践。


梁志辉:是的,如果无法处理“幻觉”问题,企业贸然接入大模型的风夷会很大,360正在对抗大模型幻觉或推理能力不脚的方式是采用AI Agent的方式来处理,也就是先把整个项目“人为划分出精细的工作流”,让大模型施行工作流中每个子任务,我们只需教大模型教会调用外部搜寻、计算以及其他工具即可,发挥了大模型最擅长的部分。


基于现实音讯进行总结,提供更优秀的语料,且是一件非常具体的事,那么99.9%的情况下,大模型的表现都会特地波动,底层念想就是把大项目拆分成小项目,把小项目拆分成具体步骤来处理。

比如,做一份旅逛规划,你能够让AI同时打开200个网页,让它快快理解,并同时让他总结涉及到的内容深层部分,包括搜寻关键词,阅读网页内的一切内容,如携程、机票等。至于如何实时抓取动态的航班音讯,我们能够经过调用第三方API,让大模型正在规定的流程中施行精确的分支跳转即可。

这其实还催生了一个风趣的景象,就是企业内部能够自定义工作流,员工之间能够把做好的工作流分享给互相。这意味着,当前AI Native APP可能不必定是现正在挪动端的APP,它能够是一个用于Agent 的工作流

这个工作流曾经把大模型要做的事的工作流程和框架波动下来,那它就能够帮你很波动处理需求几百步才能完成的任务,这正在我们内部的测试成效非常好。

整个过程中,我们期视用户不要写 prompt,只要基于我的低代码平台,就能建立起本人的大模型。

就像是小教生使用的编程软件,正在配放大模型工作流的过程中,您只需增加一些控件和框架,无需具体编写具体代码,经过拖拽几个逻辑运算点,大模型就能够按照指定步骤完成任务。

03 

趋势:大模型下一个拐点

或正在半年内到来

见实:一派声音是“无AI不抛资”,另一派则认为早期AI项目的风夷太高,必须先赚到钱才能抛,对此您怎样看?

梁志辉:国内和国外要分开看,国外许多产品曾经从流量和收入方面取得了很好的成绩;国内To B端则集中正在营销和办公领域,To C个人付费用户的志愿相对较低,C端用户常常需求的是情感陪伴方向,真正实现这些需求还是有很大应战的。


但照旧有两点建议:

一是,对于深处AI赛道的企业而行,不要舍本求末做一款强AI产品,而要教会用AI处理实际问题。AI进步效率有其优势,但必须确保与现有业务和需求结合,不脱离实际才是根本。

二是,积极拥抱新事物,从PC互联网到挪动互联网的变革,当前整个市场正正在发生大的变革,正如当初从塞班到安卓系统的改变,以致很快就可能出现“iPhone时辰”,如果资本、用户和整个使用场景都发生了变化,企业仍然坚持过去的产品和项目,报答率肯定会大大折扣。

见实:这会是一场正和逛戏还是零和逛戏?会出现一家独大吗?

梁志辉:我不认为会一家独大,AI大模型的市场很大,国内C端市场合作尤为激烈。将来,每个行业都可能会有本人的大模型,有各自的开源算法和数据,但仍需求时间来调优以确保数据算力和用户成效。


国内的厂商今年曾经真正下场,需求时间来顺当新技术。

见实:也就意味着大模型并不具有先发优势?

梁志辉:实际上,固然市面有大量数据可用于锻炼,但如果你无法获得垂直领域的精准数据,那么大模型仍然只是一个刚刚入行的新手,就像是一个刚毕业的高考状元,照旧不懂如何开中药。


如果对于某些特定领域的专业教问不脚,很难真正产生价值,数据本身就是一个壁垒。

能够提供精确有效的高质量数据,这将成为大模型能力的一个关键要素。例如,一些法院的判例能否公开数据?如果你念建立一个法律大模型,如果这些案例数据不可获得,就会成为一个难以跨越的壁垒?

见实:能否会“出现”出新的商业模式?

梁志辉:确实有可能发生严酷变革,比如,订阅方式就是最间接的变化。过去,不管是出售软件还是订阅服务,都与时间相关。


现正在,技术计价单位不再是按月定价,而是按照计算能量点和算力券等方式,如果你期视更快获得更多结果,需求支付更多费用,而不再像以前那样采用固定费用或存储空间来计费。

见实:你认为国内大模型会正在什么时候迎来下一个拐点?

梁志辉:从实际情况来看,文生文的大行语模型,不管是锻炼工具还是相当的内容都不容乐观。GPT固然正在开源过程中表现优秀,但中途又关闭了开源。


高兴的是,今年7月18日,Meta发布了开源大模型 LLaMA 2,功能接近GPT3.5,预锻炼模型正在2万亿tokens以上,精调Chat 模型是正在100万人类标记数据上锻炼的。

目前,如果一家公司念要做成一个大行语模型,需求备案大约1000台服务器,还要高薪聘请工程师来撰写大型锻炼文件,成本实正在太高了。不过,我们也看到一个向好的景象:

比如,自然行语处理和图像处理的领域,曾经具备了脚够多的工具和标准化云产品,几乎人人都能建立本人简易的大模型;再比如,现正在最火的“炼丹师”(深度进建领域的AI研讨员)还不是上班族,很可能是一群高中或初中生,他们情愿为本人热爱的二次元动漫深入研讨,并常年活跃正在QQ议论群里。

一旦有一个开源工具或社区,发展快度就会超越由几个大公司垄断的形状,正在这种情况下,行业发展会愈加疾快,这个形状可能不需求一年,大约半年就能够实现,加上不断加强的开源大行语模型,将来可期!




-

END

-

声明:本内容为作者独立观点,不代表牛片立场。转载此文是出于传送更多音讯之目的。若有来源标注错误或侵犯了您的合法权益,请作者持权属证明与本网联系,我们将及时更正、删除,谢谢。

-

原创 唐露尧   https://mp.weixin.qq.com/s/rU6YYm2jVTli8NbvttZVxQ