赞
踩
大模型的使用成本是所有公司上马AI应用最关心的事情之一。往大了说,解决的问题是收益,付出的代价是成本,如果收益没法覆盖成本,那投资必定不可持久。
当然事情并没有那么简单,毕竟能用AI做的事千千万万,解决的方式方法和对应的成本也千差万别:如何选择AI的使用场景?对结果应该抱有怎样的期待?AI将来的发展会让哪些成本大幅下降?如何运用好现有的资源,在可以接受的成本下做出可以落地的应用?这应该目前是全世界对AI感兴趣的公司都在寻找的答案。
想知道一下AI对大厂和小厂的成本影响,应该先弄清楚成本来自哪里。
无论是大模型的迭代还是出于成本或安全的考量,大模型会经常更新。作为给大模型参考的数据集也会经常更新,这些更新会导致你之前测试满意的结果在更新后返回不同的内容,这内容可能是更好了,也可能不再满足要求。AI的测试与程序的测试大不相同,因为AI返回的内容不是固定的,要判断AI的答案对不对,要么用人去测试,要么用AI去测试。用人测试对于上了规模的产品肯定是不现实的,而用AI测试本身就是在使用AI,是要消耗算力的。
无论你喂给AI的资料来自于数据库还是搜索引擎,这些内容都需要换算成token。如果你资料很多,大模型一次读不完,你还要分批次的喂,然后来一次“分——总”式的总结。因此你提供的资料越多,消耗的token也越多。为了控制住成本你需要尽可能在调用AI之前去除掉不相关和低质量的内容。
虽然从直觉上提示词不会占用很多的token,但是在Agent的场景下,tool需要靠提示词来让AI理解自己的用途,如果你的Agent里放进了很多tools,且不说AI一次对话的tokens有数量限制,这么多的提示词会大大压缩用户提出问题的字数上限,每次都读入这么多tool的介绍也是在浪费tokens。为了节省tokens,你应该采用更多的分层来组织你的tools,把提问分流下去,避免让一个Agent包办一大堆tools。
在怎样总结与AI的对话内容,让AI拥有长期记忆中的summary,每次对话都会被发送给大模型,summary的字数限制如果设置的太大也会消耗掉很多tokens
ReAct Agent的“想”结果会和问题一起发送给“做”,ReAct Agent 可以在得到最终答案前把“想”和“做”重复很多次,每一次重复都会增加 tokens 使用量。一个复杂的任务会产生很多次的AI调用和token开销。
以做知识库为例,你需要准备足够多的数据来完善知识库,这里有大量数据整理、校验、录入、更新的工作。为了提高回答质量,减少无效的召回内容,进而减少token使用量,你需要对知识库的内容本身需要优化。这里只有小部分能用现有的技术实现,比如把用户点击“满意”的答案直接存到ES里下回直接调用,而大多数情况需要人来完成,数据的成本也是人的成本。
如果你做的是用chain做业务流程(SOP),梳理业务流程本身就需要投入大量的人力,即便你不用AI是用传统的编程来实现,这个过程和成本也不会被省略。不过对于已经有SOP的公司来说,这个成本会下降很多。
先说说挑战:
再说说机遇:
机遇:
挑战:
新AI应用的不断涌现,使得大厂和小厂在市场定位上拉开了差距。在垂直领域,服务客户的能力和成本小厂相比大厂的劣势在缩小,算力和自动化方面小厂对大厂的依赖会扩大,使得双方从竞争走向合作的路子越来越宽,这将开启新一轮创业热潮。
对于IT从业者而言,更多的中小公司出现,以及更细的业务梳理分工,会使得就业岗位随之增多,数据处理、SOP梳理、提示词工程、测试等细分领域都需要更加专业的人才。传统的一个CTO领导上百人的团队为数百万终端用户提供服务的模式,会渐渐向小团队为少量终端用户提供垂直服务的模式转变,新的业务模式会大量涌现。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。