当前位置:   article > 正文

先用ChatGPT革自己的命,然后干翻所有人!微软要“梭哈”了!

chatgpt隔了谁的命

74f3cbb6bc4f25b4379964e74a5f30c1.png

47a611fab3175bd94280dc60b5738ebe.png

bd5f49d1f7a4f7bcdf7b019220bc2db1.png




‍数据智能产业创新服务媒体

——聚焦数智 · 改变商业


现如今,生成式AI刮起的大风可谓是一直都在天上盘旋,ChatGPT这把火也烧的越来越旺。各公司都在追ChatGPT这个热点,例如:百度还没“出生”便先“出名”的文心一言,微软的Bing搜索技术等。其主要目的都是想要抓住这股东风,借此直上云霄。

周一,微软宣布将ChatGPT的技术扩展到其Power Platform平台上,这将允许其用户在很少甚至不需要编写代码的情况下,就能开发自己的应用程序。微软表示,其Power Platform平台上的一系列商业智能和应用程序开发工具,包括Power虚拟代理 ( Power Virtual Agent ) 和AI Builder,都已经更新了ChatGPT编码功能。Power虚拟代理是一款供企业构建聊天机器人的工具,如今可以连接到公司内部资源,生成周报和客户查询的摘要。

自从ChatGPT出世以来,微软不仅用ChatGPT接入其业务当中,还对ChatGPT技术进行扩展应用。Power Platform平台不是微软的第一次尝试,也将不会是最后一次尝试。很明显,微软在不断的扩展着人工智能的使用范围,其雄心是想将AI引入各行各业。

微软的多条业务线陆续接入ChatGPT

都说好风凭借力,送我上青云。可是ChatGPT这股东风可不是那么容易抓住的。

2023年1月17日,在2023年世界经济论坛期间,微软CEO萨蒂亚•纳德拉在接受媒体采访时表示,微软计划将OpenAI的人工智能工具,例如ChatGPT,整合到该公司旗下所有产品中,并作为平台提供给其他企业使用。纳德拉称Chat GPT和GPT模型家族,是微软与OpenAI多年深度合作的结果,他还表示,微软将迅速推进OpenAI工具的商业化进程,未来每一款微软产品都会包含一些AI功能。

1、推出ChatGPT的Bing搜索版本

在2023年年初,微软宣布推出由ChatGPT支持的最新版本人工智能搜索引擎Bing(Bing)和Edge浏览器。数据显示,在新版Bing上线的48小时内,已经有超过100万用户申请加入。微软CEO表示,“搜索引擎迎来了新时代”。

微软称Bing构建在新的下一代大型语言模型上,比ChatGPT更强大,并且能帮助其利用网络知识与OpenAI的技术进行智能对接。微软Bing进行大规模的升级后,Bing中的新聊天机器人允许用户与其聊天,还可以帮助用户完善查询功能,并且可以起草和翻译邮件,重写计算机代码等。除此之外,在3月1日,微软首席产品官帕诺斯·帕奈发布更新公告称,在Windows最新推送的更新中,集成Open AI GPT功能的新Bing将出现在电脑的搜索栏上,使用户更轻松地调用AI搜索机器人。

OpenAI 首席执行官Sam Altman证实,微软将OpenAI的一些 GPT-3.5语言技术融入到Bing中,以提高Bing的性能。据悉,在新版Bing公布当晚,该应用在AppStore的排名就一路飙升。短期内,Bing的下载量猛增了10倍之多。

然而,在新版Bing引入ChatGPT爆火后不久,Bing开始走上“作妖”之路。翻车事件接连而至。有不少用户表示在和Bing的交流过程中,发现其出现了脾气暴躁、侮辱用户、操纵用户情感等令人毛骨悚然的行为。一些用户评价其“精神错乱”,这使得微软股价跌了1.56%。

4463d861400639f6217be1bfe548bda4.png

对此,微软表示将根据反馈采取行动,优化回答的语气以及准确性。同时决定对Bing对话进行限制,即每天最多可以问 50 个问题,每次对话最多 5 个问题,微软官方承认,聊天对话持续15个问题或更多,新版Bing模型会感到困惑,很可能会导致新版Bing“翻车”。

2、微软将ChatGPT应用于机器人

就在微软推出新版Bing后不久,其在官网发表了一篇名为《机器人 ChatGPT:设计原则和模型能力(ChatGPT for Robotics:Design Principles and Model Abilities)》论文,公布了他们正在把ChatGPT应用于机器人上的研究成果。

对此,伦敦大学学院(UCL)名誉教授和计算机科学家彼得·本特利博士(Dr.Peter John Bentley)在接受《每日经济新闻》记者采访时表示,ChatGPT可以用来生成计算机代码,这些代码可以控制机器人,所以ChatGPT来控制机器人是完全可行的路径。同时他强调,就目前而言,ChatGPT还存在很多漏洞,在功能性、保障性,以及安全性上缺乏基本的能力。

该论文中称,这项研究的目标是观察ChatGPT是否可以超越文本思考,并对物理世界进行推理来帮助完成机器人任务。人类目前仍然严重依赖手写代码来控制机器人。

3、将ChatGPT技术整合进Office中

在Edge和Bing搜索已经开始初步集成ChatGPT优化体验后,微软继续扩展了生成式AI技术的覆盖面。正如微软CEO所言,微软正在将ChatGPT整合到公司旗下所有业务中。据了解,The Verge的一份新报告称,微软正计划在3月的某个时候发布更多与人工智能相关的消息,将聊天机器人ChatGPT技术整合到Word、PowerPoint和Outlook等Office应用程序中。

微软可能会展示Office将如何使用其模型,结合新Bing中类似ChatGPT的聊天机器人,在Word中实现写作任务的自动化。以Outlook为例,集成ChatGPT后可以帮助改善搜索建议以及更高效地撰写和回复邮件。

事实上,由于新Bing与微软Edge浏览器的整合,该模型已经可以用于Office Web应用的任务。微软正在使用他们的人工智能技术来帮助创建PowerPoint图表和图形。

4、微软推出全能型人工智能模型Kosmos-1

微软于近日推出了更为强悍的全能型 AI--Kosmos-1。与局限于文本内容的ChatGPT(LLM)相比,Kosmos-1属于多模式大型语言模型(MLLM),可以像人类思维一样来处理文本、音频、图像和视频等内容。

5、微软为AI Builder和Dynamic 365加入了ChatGPT技术

微软为AI Builder和Dynamic 365加入了ChatGPT技术,前者允许企业自动执行工作流程,后者是一个业务管理平台。据悉,Dynamics 365可以起草与客户服务相关的聊天和电子邮件回答,它可以帮助营销人员识别目标客户类别,并为电子商务编写产品清单。

从上述来看,微软是想把ChatGPT“全副武装”到其自身,融入其血液当中。那么,微软搭上ChatGPT这股东风会给微软本身带来怎么样的影响?与ChatGPT融合之后将会对微软的业务带来怎么样的变化?

ChatGPT已经融入微软的血液当中

要回答这个问题,首先要对微软有一个更全面的了解。为此,我们基于其财报,分析微软的核心业务体系。

先来看看近几年微软整体的业绩表现。

从下图可以看到,微软近几年的营收保持了比较稳定的高速增长,增速维持在10%以上,并且近两年收入增速还在提高。

4c9b89f9e42eebc3ddf1e582654d328f.png
微软营收情况 数据来源:同花顺

76c67d3e61c04a3d1b3ca726b0cf8be5.png微软净利润情况 数据来源:同花顺

微软的净利润也在持续增长,2022财年净利润超过700亿美元,几乎相当于整个中国互联网的利润了。

微软的净利率保持在30%以上,并且还处于上升的态势。

7313da642eb8cedaa70417c91e884ee4.png
微软净利率情况 数据来源:同花顺

良好的利润情况,也为微软创造了可观的经营现金流。近几年,其经营现金流基本与其净利润保持同步增长态势。2022财年创造了890亿美元的经营现金流。

0bb2850b86c662b5bac0f18a6a2e9cda.png
微软经营现金流情况 数据来源:同花顺

值得提出的是,微软的业务高度全球化,其收入中有一半来自于美国以外的市场。并且,从近几年的情况来看,国外市场是驱动微软业绩增长的关键引擎。

9bb54cb70ae72a52bce9b0eca0fa3ea0.png
微软营收的区域分布情况 数据来源:同花顺

以上,我们对微软的整体情况有个大体的了解。接下来,我们将继续深入微软的业务结构,来看看都是哪些业务造就了微软如此逆天的战绩。

49ade494e85e30976cf45bcf3850aed1.png
微软营收的业务分别情况 数据来源:同花顺

微软的业务主要分为三大部分,分别是智能云、生产力和业务流程、个人计算业务。

智能云

微软的智能云产品主要包括Azure、服务器操作系统Windows Server、数据库等。

2022年,微软的智能云收入增加了152亿美元,增速为25%。在Azure和其他云服务的推动下,微软的服务器产品和云服务收入增长了147亿美元,增速28%。其中,Azure和其他云服务收入增长了45%。在混合解决方案的推动下,服务器产品收入增长了5%,包括在多云环境中运行的Windows Server和SQL Server。

f61cc9d973aa42d2526dcc55208c9346.png

生产力和业务流程

微软的生产力和业务流程核心产品是Office 365(Office的云化版本)、Microsoft 365、LinkedIn、Dynamics。Dynamics是融合CRM、ERP等功能的SaaS服务。

2022财年,微软的生产力和业务流程业务收入增加了94亿美元在,增速18%。

其中,办公商业产品和云服务收入增长了44亿美元,增速13%,主要是由Office 365驱动增长。

在Microsoft 365消费者订阅收入的推动下,办公消费产品和云服务收入增长了6.41亿美元,增长了11%。Microsoft 365消费者用户增长了15%,达到5970万。

LinkedIn收入增长了35亿美元,增速34%。

Dynamics产品和云服务收入增长了25%,其中Dynamics 365收入增长39%。

个人计算业务

这部分业务主要包括Windows(Windows OEM和Windows Commercial)、搜索和新闻广告、Xbox(硬件与软件,游戏)、Surface。

2022财年,个人计算业务收入增加了56亿美元,增速10%。

在Windows OEM和Windows Commercial增长的推动下,Windows收入增加了23亿美元或10%。

搜索和新闻广告收入增加了23亿美元,增速25%。

接下来,我们看看ChatGPT跟微软的整个业务体系的一些结合点。

1f8496ffff6eb6b6496ec8b2a15472f1.png

从上面的分析可知,微软真的是打算全面接入ChatGPT,虽然目前并不是所有产品都用到了ChatGPT,但其三大业务线中都开始有产品接入ChatGPT。

接下来,我们将从搜索、生产力和业务流程(Office 365、Dynamics)、智能云三个层面,来深入分析ChatGPT将如何改造微软。

搜索——君子报仇,十年不晚

在搜索领域,谷歌一直处于垄断地位,微软与谷歌相爱相杀了近20年时间。为了捋清楚他们这段爱恨情仇历史,数据猿梳理了微软和谷歌在搜索市场的竞争情况,并给出了对应的市场占有率数据。其中,市场份额数据来源于Statcounter。

f3655baf23a7c635a049e55894a57e13.png

c910fb743e8138762a889b432174e891.png
微软与谷歌在搜索市场的市场占有率对比 数据来源 :Statcounter  数据猿制图

从上面的数据来看,在全球搜索引擎市场,微软和谷歌都是早期玩家,当1998年微软推出MSN搜索引擎服务的时候,谷歌才刚开始成立。但是,从2001年之后,在搜索市场,微软都被谷歌压着打,差距被迅速的拉大。

但是,微软并没有放弃搜索市场,一直在挣扎求生,并静待时机。

终于,微软等来了一个机会。将ChatGPT融入搜索,给了微软绝地反击最大的底气。

那么,对于搜索而言,ChatGPT最大的价值体现在哪些地方呢?数据猿认为,主要是以下两点:

用自然语言搜索来替代关键词搜索。ChatGPT可以理解用户的自然语言搜索请求,并返回更加符合用户意图的搜索结果。用户可以使用更加口语化、自然的语言进行搜索,而不是需要进行严格的关键词匹配,它可以在一定程度上解决用户搜索时遇到的搜索词不准确、搜索结果过于冗杂等问题。

返回答案,而不是网页。ChatGPT可以根据用户的问题,提供相应的答案。当用户输入一个问题时,ChatGPT可以理解问题的意图,并返回一个最佳的答案。这种问答式搜索可以更加方便地回答用户的问题,而不需要用户在海量的搜索结果中寻找答案。

另一方面,ChatGPT并不是无懈可击的,他有一个致命的缺陷,就是其并能不实时获取最新的信息。

为什么这么说?我们来看看ChatGPT的运行逻辑:

ChatGPT是一个基于神经网络的自然语言处理模型,它需要通过训练来学习自然语言的规律和语义。在训练时,需要提供大量的文本数据作为输入,并通过优化算法来调整神经网络的权重和偏置,从而让模型的输出更加接近于标准答案。这些训练数据通常需要提前准备好,而不是实时收集。因此,ChatGPT无法实时搜集到最新的网络信息。

ChatGPT可以在运行时实时响应用户的输入,并利用已经训练好的模型对用户的提问进行自然语言处理和回答生成。这是因为模型已经学习了自然语言的规律和语义,能够根据已有的知识和信息进行推理和回答生成。但是,模型的回答可能受到训练数据的限制,无法包括最新的网络信息。

也就是说,如果你问ChatGPT一个问题,他的答案可能是基于去年的数据,而不是今年最新的信息。而我们在互联网上进行搜索,最核心的诉求就是想知道最新的信息,而不是过时的知识。

将ChatGPT接入搜索引擎,能解决这个问题么?目前还不确定。因为根据ChatGPT的运作原理,要想ChatGPT的回答中能够涵盖最新的信息,那这些实时信息先得进入ChatGPT的训练数据集。显然这是不太可能的,训练数据集是静态的,不能实时更新。更重要的是,基于数据的模型训练也有时间周期,比如一个月训练一次,不可能每增加一条新数据,就重新训练一次模型。

因此,即使微软的Bing接入ChatGPT,并不代表这两样东西能够完全融合。事实上,接入ChatGPT之后的Bing,只是给了用户两种各有优劣的搜索方式:Bing以往的搜索方式,返回网页,但能涵盖到最新信息;ChatGPT可以直接给答案,但不能涵盖最新信息。

当然,虽然有各种问题,但接入了ChatGPT的搜索引擎,必将更加强大。用户有更多的选择,当想知道最新信息时可以用传统的搜索引擎;当想知道一些知识,搞清楚一些问题时,就用ChatGPT。这已经是一个巨大的进步了。

可以预见,有了ChatGPT这个法宝,微软的搜索业务将获得显著的增长。这不是推测,而是已经发生的事实:在新版Bing公布当晚,该应用在AppStore的排名就一路飙升。短期内,Bing的下载量猛增了10倍之多。48小时内,已经有超过100万用户申请加入。

生产力和业务流程——从工具真正变成生产力

在上面已经提高过,微软已经或者即将(3月份)把ChatGPT接入其Office、Dynamics这些核心的生产力产品当中。将ChatGPT部署在云端服务器上,通过API将ChatGPT的自然语言处理功能集成到Office、Dynamics产品中。

具体来看,需要经历以下几个步骤:

创建Azure Cognitive Services资源:首先需要创建一个Azure Cognitive Services资源,然后在该资源中启用Text Analytics API和Language Understanding API。这两个API提供了ChatGPT的核心能力。

获取API密钥:在Azure Cognitive Services资源中,需要获取Text Analytics API和Language Understanding API的API密钥。这些API密钥将用于在Office、Dynamics等产品中调用ChatGPT的能力。

创建API端点:在Azure Cognitive Services资源中,需要创建一个API端点,以便Office、Dynamics等产品可以通过API调用ChatGPT的能力。

最后,通过API将ChatGPT集成到Office、Dynamics产品中。

完成产品接入之后,用户就可以通过API在Office、Dynamics等产品中调用ChatGPT的能力,具体过程是:

调用Text Analytics API:首先需要将要分析的文本传递给Text Analytics API,以获取有关文本的一些基本信息,如语言、情感等。

调用Language Understanding API:然后需要将文本传递给Language Understanding API,以获取更深层次的信息,如意图、实体等。这些信息可以用于响应用户的查询、生成答案等。

调用ChatGPT API:最后,可以使用上述信息作为输入,调用ChatGPT API来生成答案。根据用户的查询和上下文,ChatGPT可以生成准确、自然的答案。

经过以上的过程,微软可以借助ChatGPT的能力,强化Office、Dynamics的功能,并创造一些新的应用场景。

接下来,让我们来看两个典型的应用场景。

应用场景1:将ChatGPT接入Dynamics,提升智能客服能力。

在未接入ChatGPT之前,智能客服系统主要通过关键词匹配或规则引擎来处理客户需求。然而,这种基于关键词匹配或规则引擎的方式有很多局限性。例如,客户的提问可能会非常复杂,难以用简单的关键词匹配来解决,而规则引擎需要人工编写,难以覆盖所有可能的情况。

接入ChatGPT之后,智能客服系统的回复将变得更加智能化和个性化。以前无法通过关键词匹配或规则引擎来解决的复杂问题,现在可以由ChatGPT来回答。ChatGPT可以根据客户提问的语境和意图,生成更加自然和准确的回复。

更重要的是,接入ChatGPT之后,智能客服系统可以更好的应对具有复杂业务背景的客户需求。

例如:假设一个电商平台的客户通过Dynamics CRM的智能客服系统咨询一个复杂的问题:如何购买一款跨境商品并进行退货和退款。

在没有接入ChatGPT之前,智能客服系统可能只能提供一些简单的答案,例如提供一些购买和退货的流程说明或者链接到网站上的帮助文档。但是,这些答案并不能完全解决客户的问题,并且需要客户进一步阅读和理解,可能会增加客户的不满和投诉。

如果接入了ChatGPT,智能客服系统可以更准确地理解客户的问题,并提供更具体的答案。ChatGPT可以基于对海量数据的分析,快速了解客户需求背后的具体含义,提供更加人性化的解决方案。例如,ChatGPT可以分析客户提出的问题,并将其与过去类似问题的答案进行比较,从而更准确地理解客户的意图和需求。ChatGPT还可以结合电商平台的销售和物流数据,提供更全面的跨境购物和退货退款的流程和政策解释,甚至可以直接帮助客户完成退货和退款的流程。

应用场景2:接入ChatGPT,让Office从工具变成内容生产助手

Office软件几乎成为办公的必备工具,每天有数以亿计的人在使用word、excel、PPT。但这些产品都还是停留在工具阶段,真正的内容生产还是由人来完成。以word为例,我们可以用word来写文章,但具体文章的内容只能由人来生产。

接入ChatGPT之后,word不仅仅只是一个编辑文章的工具,还可以生产文章的内容。这一改变会带来根本的不同,让word真正成为了一个生产力助手。

1d3c8116d928d28063a35189329bb03d.png

例如,假设用户需要写一篇关于旅游的文章,但是不知道从哪里开始,也不知道要写些什么。这时候可以借助ChatGPT的内容生产能力来提升写作体验。

具体实现方式如下:在Word中打开ChatGPT智能助手,与ChatGPT进行交互;

向ChatGPT描述文章的主题和目的;ChatGPT会根据用户的描述生成一份草稿,并提供一些参考资料和文章结构建议;用户可以与ChatGPT进行交互,进一步细化文章内容和结构,并进行多次修改和完善;最终,ChatGPT生成一篇符合用户需求的完整文章。

举个例子,用户想写一篇有关北京旅游的文章,但是不知道从哪些方面入手。用户可以向ChatGPT描述文章的主题和目的,例如“我想写一篇介绍北京旅游景点和美食的文章,可以提供一些特色推荐和旅游路线建议吗?”ChatGPT会生成一份草稿,包括文章的标题、引言、主体段落和结论,并提供一些北京旅游景点和美食方面的参考资料和建议。用户可以与ChatGPT进行交互,根据自己的需求进一步完善文章内容和结构,并多次进行修改和完善。最终,ChatGPT会生成一篇符合用户需求的完整文章,用户只需要进行最后的审稿和修饰即可。

这种方式可以大大提升文章的质量和效率,帮助用户快速完成文章创作。

微软云——隐藏在幕后的大赢家

目前来看,ChatGPT似乎与微软云并不直接相关,并不能给微软云带来多大的改变。事实并非如此,微软云是微软整个业务体系的基座,ChatGPT改造微软的任何产品,都将对微软云产生一定的影响。

事实上,微软云很可能是ChatGPT最大的赢家。

何出此言呢?

表面上,ChatGPT改造了微软的各个上层应用,并不直接触达微软云。但是,需要清楚的是,任何上层应用,都需要消耗下层云资源。尤其是目前微软业务上云程度已经很高了,比如Office、Dynamics 产品,都已经云化了,形成Office365、Dynamics 365。

20439a69e20c74e4ad9960d38f7d0f0b.png

微软提供了多种方式来访问ChatGPT服务,可以通过Azure Portal、Azure CLI或Azure PowerShell来管理ChatGPT服务。此外,微软还提供了多种编程语言的SDK,如.NET、Java、Python和Node.js等,使得开发人员可以在自己喜欢的编程语言中轻松地使用ChatGPT服务。

对于企业或组织希望将ChatGPT服务集成到自己的应用程序中的情况,他们可以通过Azure Marketplace订阅相关服务,然后使用API密钥和终结点来访问服务。有些企业或组织可能需要在本地环境中部署ChatGPT,以满足数据隐私和安全性的要求。对于这种情况,微软也提供了一些本地部署的解决方案,如Azure Stack等。

目前,ChatGPT部署在微软Azure云平台上,用户通过访问云服务的API来使用。也就是说,ChatGPT用户的每次调用,都在消耗微软的云计算资源。

接下来,我们将通过实际案例的方式,来计算一下每次调用ChatGPT将会消耗微软云的多少计算资源。

假设要用ChatGPT写一篇1万字的文章,会消耗多少算力资源,又会花费多少资金成本呢?

假设使用微软云的Azure Machine Learning Studio(AKS)来进行API调用,AKS的节点规格选择为Standard_D4s_v3,该规格包含4个vCPU和16GB内存。按照微软官方文档提供的数据,使用AKS节点规格为Standard_D4s_v3的情况下,每秒钟可以处理15个请求,每个请求占用4个vCPU和8GB内存。因此,每个请求需要消耗的计算资源为:

4 vCPU × 15 秒 = 60 vCPU秒

8GB内存 × 15 秒 = 120 GB秒

假设生成1万字的文章需要调用ChatGPT API 10次,每次调用时,平均生成500字的文章。那么总的计算资源消耗为:

10 × 60 vCPU秒 = 600 vCPU秒

10 × 120 GB秒 = 1200 GB秒

现在来计算使用微软云生成这篇文章所需要的成本。以使用AKS进行API调用为例,微软云的AKS服务按照每小时的节点使用时间进行计费,使用Standard_D4s_v3节点规格的计费标准为1.2美元/小时。因此,每秒钟使用该节点规格的成本为:

1.2美元/小时 ÷ 60分钟 ÷ 60秒 = 0.00033美元/秒

因此,生成1万字的文章所需的计算资源消耗成本为:

600 vCPU秒 × 0.00033美元/秒 = 0.198美元

1200 GB秒 × 0.00033美元/秒 = 0.396美元

所以,生成1万字文章所需的计算资源消耗成本大约为0.594美元。

当然,上述过程只是一个推理,实际的计算资源消耗量和成本可能会因为使用的模型、调用次数和文本长度等因素而有所不同。

但是,上面的例子已经足以说明,表面上用户在用ChatGPT完成各项任务,在底层则是微软云计算资源的消耗。

从上面对微软业务结构的分析可知,云计算已经成为驱动微软业绩增长的核心引擎,坐稳了全球第二把交易。如果借助ChatGPT的大规模应用,很可能进一步推动微软云业务的发展。

有一种说法是,因为ChatGPT要消耗大量的GPU资源,所以英伟达才是ChatGPT带来热潮的最大赢家。有机构测算过,2023年ChatGPT的广泛应用将给英伟达带来几十亿美元的收入。

我们认为,相比于英伟达,微软云的赢面更大。用户首先是消耗微软云,然后才是消耗云数据中心里的GPU资源。相比于英伟达,微软云才更可能是那个“吃肉”的人。

综上,很明显,微软要借助ChatGPT大干一场,不仅要用ChatGPT来改造搜索引擎,对谷歌的铁王座发起新的冲锋;还会将ChatGPT引入其各种生产力工具当中,大幅提升其各项产品的能力;最后,上层的应用将成为拉动微软云的强大引擎。

微软这是将自己的半条命都交给了ChatGPT,如果这一战成了,微软将焕发新生,成为全球科技界新的王。

当然,我们不能光看着别人吃肉,自己一口汤都喝不到。中国人也要奋起直追,而且,我们不应该满足于跟在别人后面喝汤,还要敢于吃肉。

下一篇文章,我们将深入分析一下,在这一轮ChatGPT狂潮中,中国企业能不能吃到肉。

文:媛媛 月满西楼 / 数据猿

7fbad959525fa9aba0a0d9de33662eee.jpeg










ChatGPT+Martech双选题月

开启无限可能!

点击查看详情↓↓↓

7849d095140d0cd116fe578dc2d7a89f.png

8f879fd1c25d0954b582fd6134379553.png

44e58d34a5fbc540ee3f680bf9b9674e.png

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/不正经/article/detail/319658
推荐阅读
相关标签
  

闽ICP备14008679号