• 发文
  • 评论
  • 微博
  • 空间
  • 微信

宜博:大模型生态进化逐鹿中间层 | 极新企服直播实录

极新 2024-03-14 16:01 发文

大模型的现实主义和理想主义相交在‘中间层’ 

整理 | 王娴

编辑 | 云舒

出品|极新

LLM的创新迭代也依赖着其生态系统,在这个生态中,中间层的迭代起着至关重要的作用。通过中间层迭代,将推动大模型准确率、Agents实现、模型微调、与现有世界交互,促进模型创新、提高模型性能、促进知识共享、降低训练成本、增强模型泛化能力。

那么,中间层迭代对于大模型生态有何影响?

在3月7日极新与宜创科技创始人宜博的直播中,从中间层迭代的本质与影响大模型生态的路径展开讨论,宜博多次提到“中间层与大模型互利互生”,架构出大模型生态的直观画面。

宜博,宜创科技创始人,TGO鲲鹏会(北京)学员,清华大学经管学院MBA,西安电子科技大学计算机系本科。2014年创办宜创科技,已服务国内上百家大型技术团队和项目。公司2023年开始专注在ChatGPT领域创新,已推出Chat-BI、ChatExcel、Chat-Email等多个产品。目前,宜创科技正在构建全新的大模型中间层基座,帮助企业低成本打通私有数据、微调私有领域模型、快速构建各类大模型应用的LLMFarm大模型农场,致力于帮助企业解决不能用、不会用、不好用大模型的实际痛点,让中国企业都能通过利用LLM大模型落地各类应用场景。

本文,极新对话宜博。我们深入探讨“中间层迭代对于大模型生态的影响”这个话题,宜博给出了关于这些板块的回答。

“中间层的本质与迭代”

“中间层与大模型生态的互生”

“大模型的落地,以中间层为基点”

以下是问答整理(「视频号:极新企服」有直播回放):

01中间层迭代本质揭秘“中间层的迭代是新时代的开始,更是大模型生态的决定性力量。”

极新:自去年3月份大模型问世后,中间层便一直是大众关注的焦点。中间层的迭代是新时代的开始、是大模型生态的决定性力量。今天我们有幸邀请到宜创科技创始人——宜博先生作客极新·企服直播间,共同探讨中间层迭代对于大模型生态的影响。首先欢迎宜总给大家做个自我介绍~

宜博:感谢极新的邀请。我是宜创科技创始人宜博。宜创科技成立于2014年,2016年开始向AI coding方向发展,选择用NLP生成VPL(可视化编程语言),再生成code的方案做AI编程。然而随着低代码架构被GPT生成代码的颠覆,及时转型,选择All in大模型领域。在2023年3月,我们开发出了当时最适合做AI coding的场景——NL2SQL,或称为Chat-BI;到4、5月份,转做了大模型中间件平台LLMFarm。

过往六年在VPL方向所积累的低代码能力,使得LLMFarm能够在大模型时代帮助客户将开发成本降低20倍,且已于去年6月开始交付第一批产品。在过去半年中,完成了五十多个POC签证案例,我们也常常笑称自己为2023年度中国做过大模型落地场景最多的公司之一。

去年2月Sam Altman说过一句话,“大模型时代,创业机会不在模型层、应用层,而在中间层”我十分认同他的观点。

应用层不等于应用,二者有本质的区别。在APP时代,应用层指的是聚集了UI、UE、 UX等设计的界面;大模型时代,应用层变成了我们称之为对话框的Chat UI,它变得很薄,不再有更多的界面交互设计。事实上,所有落地的方案都是场景应用,但不一定是应用层。模型层一般包括通用大模型、私有专业大模型以及私有的小模型等。模型层再往下是算力层、芯片、算力、GPU、LPU、NPU等,未来还会在手机上有存算一体化的新结构来替代算力层。

中间层又分为两层,第一层叫做Prompt OPS,第二层叫SFT OPS。SFT OPS是结合模型层使得模型数据能够自动、快速进行训练或者微调的方式,以此让模型产生更大价值;而Prompt Ops的能力在于,通过与Workflow、知识库、API、数据库串联,搭成Agents框架完成大模型的交互和赋能,这些是中间层的核心能力。

我举一个例子来说明中间层的作用。为什么应用界面看起来一样的很多ChatGPT接口套壳应用,背后模型都是一样的GPT-3 GPT-4,但是效果与ChatGPT相差甚远?根本原因不在于模型层,而在于中间层能力不同。未来的应用如果有差异,其核心就在于中间层工程和微调能力的不同,导致数据和准确率的不同,应用效果不同。

2024年,大模型在中国市场逐步落地,中间层的重要性被更多人所关注。但是中间层的开发需要依赖原生代码,效率低下且试错成本高,此时,框架、开源工具以及可视化低代码平台等解决方案的出现则可以极大地降低开发成本,进一步开发大模型的价值。

极新:接下来请宜总解释一下LLM开发范式的基本情况。

宜博:算力层、模型层、中间层以及应用层共同构成了LLM完整的架构。中间层又可以细分为两个子层级,SFT和Prompt Ops,而Prompt Ops我个人倾向于将其细分为5层。

第一层,Prompt,用户直接跟大模型自然语言对话,如聊天、文本生成、图片生成等交互任务。

第二层,RAG,集成了外挂向量数据库、API接口以及传统数据库,以便与用户进行更多私有数据的交互。

第三层,Workflow层,随着工作流节点数量的拓展不断优化,以实现更高的精准度。举个例子,在Chat BI中想通过一句话生成报表的具体流程为:先从数据库中读取数据库定义,再将用户问题与数据库定义输入大模型,生成SQL,接着将SQL导入My SQL数据库执行,最后将执行结果转化为图表展示。但是自然语言问题生成SQL准确率不足,则可以在前面增设一个Better Prompt节点,先将自然语言转化为程序语言,准确率能提升20%。再比如后面如出现SQL执行错误,则可通过增加Reflection(反馈)节点来让大模型将错误信息和原有提示词一起重新生成,则最终的SQL不单自行纠错,还能进一步提升准确率。

第四层是Universal Agents,我们将其称之为统一代理。举个例子,人机交互领域中首先是Single Task Agents模式,一个agents在单一任务下调试的比较准确,但是其他问题就无法回答。在Universal Agents模式下,用户发送一个指令,它就会先用大模型自动进行意图识别,然后选择用不同的Agents完成特定领域的不同任务,类似大脑的任务分发,这样一个对话机器人就可以完成理论上所有的事情。

第五层,Autonomous Agents,会自己完成规划、执行、反馈、监督、递归等程序。例如,当其执行订购机票的指令时,它将首先做规划,做这件事情需要几步,然后独立进行搜索,根据多个参数进行对比和选择等动作,并最终根据人和API的反馈来决定下一步是否执行。未来,这一过程完全由大模型独立完成,与目前依赖人工配置的工作流程形成鲜明对比。随着未来工作流程的积累,大模型将逐渐取代人工进行配置工作流,并展现出其举一反三的推理能力。

正如自动驾驶技术从L1级逐步演进至L5级,大模型也将经历从初级到高级的自动化过程。初期,仍需人类为Agents提供必要的workflow;随着技术发展至第四阶段,Agents将能够部分脱离人类监督,自主识别并处理workflow;最终,在第五阶段,Agents将实现完全自主化,能够自行规划并执行workflow,无需人类干预。

这是我们所追求的理想状态,要实现这一目标,需要中间层、模型层和应用层共同努力。但目前所需文本和推理数据在现实中是缺失的,因为大量信息仍储存在人类的脑子经验中,尚未被转化为文字形式。因此,平台需要不断积累这些数据,形成自增长、自循环的数据体系,以推动Autonomous Agents变得更加智能。

极新:从Chat GPT发布到现在,大模型生态有了雏形,中间层、应用层、平台层都涌入了不少老牌企业和创业公司。那么,哪一层会先迭代?

宜博:准确来说是算力层、模型层、中间层、应用层

第一,最先盈利且最紧俏的是算力层,今年各大公司的投资也基本上都在这一层。

第二,从GPT-3、GPT-4、GPT-4.5,Sora算是GPT-5前菜,模型层在过去一年的迭代非常快。

第三,中间层的迭代受到模型本身能力的推进而改变,包括现在爆火Agents、具身智能,AI RPA等都是在广义中间层范围内的框架性创新。因此,随着应用落地的需要,中间层的价值会愈发被大家所重视。

第四,应用层会变得很薄,像一根针,Chat UI的模式会改变原有APP和SaaS的界面形态。因为大模型解决的是生产力的问题,这也导致了它没办法像互联网信息交互平台一样快速扩张。大模型落地所需的创新成本、试错成本非常高,这也恰恰是应用层目前迭代面临的最大壁垒,中间层则可以加速应用层的迭代

极新:中间层迭代的本质是改变了什么?

宜博:中间层的本质没有变化,也即对Prompt与对SFT这两层的需求没有发生本质的变化。但是其细分技术一直在变化

首先,中间层需要与时俱进,紧跟新技术、新Prompt Ops进行迭代更新。

从VectorDB发展到RAG再到Long Token Chat,模型Token长度的扩展导致中间层对文件读取和问答的能力产生了新的变化。以及COT、TOT、GOT等新技术的不断涌现,要求中间层不断调整Prompt Ops,以确保大模型在不同场景下能够达到更高的准确率。因此,中间层的变化是一个持续适应和迭代的过程,旨在不断提升模型在各种场景下的性能表现。

其次,中间层迭代需要适应客户需求的变化。

举例来讲,去年客户需求可能仅主要集中于简单的ChatPDF、ChatDoc等功能。然而,随着今年需求的升级,大模型面临了更为复杂的挑战,例如生成更为复杂的招投标书、精准计算的年报数据分析等。过去,完成此类任务可能相当难,因为当时的模型能力有限,无法仅依赖模型来确保结果的百分百准确,甚至不得不采用工程化方法解决相关问题。但随着模型能力不断提升以及中间层技术的增强,我们能够使用模型有效应对更多复杂场景。

02中间层与大模型生态的互利互生

“中间层如同犀牛嘴巴里的小鸟,帮助大模型解决其自身无法解决的问题。”

极新:中间层迭代的哪些路径会影响大模型的生态?

宜博:中间层最担心的是大模型的能力是否会折叠中间层的能力,最有名的故事是,每次Open AI发布新能力最受伤的是Lang chain。但同样有一种观点认为,中间层、应用层未来要用大模型,而不是被大模型折叠。中间层很大程度上弥补了大模型做不到的事情。

第一,中间层的价值会随着大模型的变化而变化大模型能力提升或发布中间层框架时,可能会挤压一部分中间层现有功能的生存空间。但是这其中依然有大模型做不到的事情,中间层的价值永远都存在。

第二,中间层对应用的重要性随着中间层能力的迭代而不断提升应用的交互效果和能力完全依赖于中间层的迭代更新,这是大型通用模型或专业模型所无法实现的。很多数据属于私有数据,它们不会用于训练通用大模型或专业大模型,只会用于私有大模型。然而,在私有大模型成本高昂的情况下,选择采用成本更低的中间层来实现会更为理想。

极新:春节之后很多大厂竞相推出AIGC应用,或许是因为Sora的问世使得一些视频、文生图应用被折叠。那么,在大模型中,中间层应当发挥怎样的作用能够促进应用层更好地发展?

宜博:以我们的发展路径来回答这个问题。我们的发展方向从Chat BI到Chat Excel再到中间层,在中间层的发展中我们一直在帮客户做验证。在免费做了验证的客户中,只有1/5的客户实现了真正的场景落地。因为没有人知道大模型在真实场景里的效果如何?是否能满足大家的预期?能否满足终端用户为其付费的意愿?这是一个创新试错的过程。

其中,我们积累到的经验有以下几点:

第一,长期的积累。上文提到,过往6年在NLP-VPL-Code方向试错所积累的VPL能力使得宜创科技能够在大模型时代帮助客户将开发成本降低20倍,帮助客户快速、低成本地验证大模型的落地情况。

第二,客户的需求在哪里,我们前进的方向就在哪里特别是做Prompt OPS,一定要以客户的痛点、客户的需求为创新发展的方向,而不是仅凭自己的想象。

极新:如今,大模型的发展不再是仅靠底层算力带动就能达成,而是需要与其它层协同发展。那么对于目前落地的大量大模型应用来说,想要快速占领市场,从中间层来看,需要哪些硬核实力?

宜博:应用能否真正跑出来,应主要关注以下两个方面:

第一,所需解决的问题类型。在TO C领域,解决情感、精神相关的问题会是高价值的应用场景。TO B领域则主要涉及开源、节流、控风险三类问题。然而,目前许多应用厂商似乎陷入了一个误区,即过分关注节流问题。事实上,这种应用场景的ROI天花板相对较低,而大模型的人力、试错成本高昂,使用大模型解决并不划算。目前,许多企业试图通过大模型替代人工完成一些工作,实际效果并不理想。因此,在应用大模型时,需要仔细考虑所要解决的问题类型以及该问题的实际价值和应用场景。

第二个,能否帮助客户盈利。目前,大模型底层高昂的算力成本、编辑成本、运营成本成为其无法开始落地的最大原因开源相关方向的项目收益也并不可观,反倒是风险控制的场景落地效果较好因为风险对企业所造成的损失是无法估量的,尤其是一些以大客户为核心的国央企,其对于合规检查、合同检查、标书检查等领域的风险控制预算会远超于开源、节流。甚至包括舆情分析、安全分析等也是有价值的场景

大模型场景落地的本质在于成本如果成本像互联网一样低廉,早已经爆发出很多应用。然后就目前的情况而言,AI的落地还是收到了很多的限制,如算力的限制、运营成本高昂、试错周期过长等等。所以我们尽己所能帮助大家降低试错成本。

极新:从去年底开始,很多企业都在提倡小模型,因为小模型能够节省算力且更专注于特定行业,因此小模型似乎更有价值。这样的变化是不是也对中间层产生了一些影响?

宜博:我们过去一直在验证不同版本、不同型号的模型在各种场景下的实际应用能力能否满足当前较高算力、较高参数量需求的模型编程推理和意图识别任务。经广泛验证得出,模型规模达到70B及以上方能满足需求。

针对L1和L2级别的自然语言对话或者RAG, 6B、7B已表现得十分出色,即使在更复杂的场景下,7B或13B级别的模型也能够轻松应对,我们也能为客户提供全私有化的解决方案,并根据客户需求灵活搭配模型。例如,如果客户有四张卡,我们可能会在其中两张卡上部署70B大模型,而在另外两张卡上部署较小的6B、7B模型或embedding模型。四张卡的协同工作能够有效地平衡客户需求和算力分配。此外,还加入了向量数据库的检索功能,以提高缓存效率。遇到相似问题时可以直接从缓存中找到答案,从而大大降低算力需求,减少80%-90%的算力消耗,只有10%的新问题才需要依赖大模型来提供准确答案。

中间层的工作重点在于协助客户设置和调整模型,并将其整合成高效的工作流,以实现最佳的效率成本。

极新:现在有一个令我们感到困惑的现象,即大模型企业一方面在增加对算力的投入,一方面在削减开发和运营的成本;反观一些底层的AGI企业是在提高运营、研发投入,减少算力投入。这二者会不会存在双向奔赴,在中间层达成结合的可能?

宜博:目前,大模型的发展确实是在逐渐分化。专注于研发通用大模型的企业今年明显调整了策略,将重心放在Agents框架端侧一体的大模型应用场景中。这种分化是正常的,因为不同的企业、团队和研发方向拥有不同的基因和优势,自然会导致研发重点的分化。

并非所有企业都需要投入到基础大模型的研发。目前,大型算力和训练模型的资源是稀缺的,然而在实际应用中又有大量的算力资源被浪费例如,每个用户都拥有的手机,其存算一体的结构配备了12G、16G等显存,这些资源完全有能力运行规模较小的模型,以完成如文档问答、论文撰写、日报制作等日常通用任务。为减轻大型模型推理的压力,这些场景应尽快落地实施。尤其是并不需要特别大型模型的聊天场景。这种分化是基于需求点、成本和可行性方案的综合考虑,以实现最优化的解决方案。

小模型的需求在私有化领域尤为突出。因为无论是企业级还是个人级方案,都对保密性提出了极高的要求。由于担心文件内容泄露,用户不愿将文件上传至网页端的大模型进行分析。然而,这些需求又确实存在。因此,如何在全私有化部署的环境下,有效利用现有PC端的算力满足用户的多样化需求,成为了一个重要的课题。

在中国市场,中间层技术的研发和应用正迎来巨大的机遇。宜创团队也正积极在这一领域进行尝试,并将很快推出相应产品,实现全私有化的模型到端侧、中间层到应用层的全方位一键部署,为用户提供便捷、高效的解决方案。

极新:接下来我们站在创始人的角度来谈谈中间层的迭代会对其上下游到底带来哪些创新的发展?上下游产业如何享受到中间层迭代的红利?

宜博:事实上,应用层已经在享受中间层的红利了,脱离了中间层,现在的应用层很难做出效果。而未来的中间层肯定会受到逐渐强大的模型层的影响。中间层会如同犀牛嘴巴里的小鸟一样,帮助大模型解决其自身无法解决的问题。中间层企业则通过帮助客户在应用层面完成人力难以完成的事情来创造价值。

03大模型的落地,以中间层为基点“未来中国大模型会持续围绕能够落地、对国计民生的产生价值的方向发展。”

极新:英伟达的黄仁勋曾说过一句话:打败对手不是目标。他提到,创办企业最难的两件事情,一是要把客户需求研究明白,二是要围绕客户需求做生产研发。这两点是企业要面对的真正的挑战,这与打败对手没有关系。宜总如何看待这个观点?

宜博:我同意这个观点。

很多人创业一开始的目标可能是为了融资、为了出人头地、为了赶超竞争对手等等,这些目标都是偏离正轨的。而企业的初心一旦偏离正轨,就会导致企业做出错误的决策,进而陷入恶性循环

王阳明心学里提到,人要专注于天理,天理即为对社会、对民族、对人类有价值的事情。企业发展同理,要专注于做对客户、对社会有利的事情,而不是仅仅把目光放在赶超竞争对手上,要努力成为一家对社会有贡献的企业。英伟达现在所取得的成绩正是其过去20年不断满足客户需求、不断推动世界进步所达成的结果,因为他推动世界进步,世界也自然回馈于他相应的价值。

极新:有朋友在社群里问到,中国今天的大模型会向何处发展?因为如今中美大模型在综合实力上仍存在一些差距,但是我们的大模型也有自己的优势。那么,从中间层来看大模型的未来,它的发展趋势会如何呢?

宜博:第一,Sora的问世打破了很多人的认知。事实上,我在1月份的时候就判断AI视频的“Midjourney时刻”会在3个月以内出来。如果GPT-5 能在今年下半年如期发布,大家的普遍认知又会被重新打破。GPT-5是个图像加视频的多模态大模型,并且有10M以上的token windows,会有百万亿级的参数。而最新的Gemini已经推出了1M到 10M的token windows,这意味着未来几乎99%Github的代码工程都可以被大模型直接一次性全部读取并且重写;也可能意味着99% 的传统意义的不会用大模型编程程序员都会失业。

Sora作为GPT-5 的前菜,已经让我们见识到了十分强大的物理世界理解能力,未来技术的力量更是难以估量。所以大家对未来一定要抱有足够的想象力,基点来临,其发展速度一定是指数级的。

第二,我个人认为中美两个市场是完全不一样的。

美国可能偏向于技术研究和新技术所带来的整体的变革,投资市场偏好有巨大爆发力的、能够维持资本增长的项目。这与美国的科研体系、资金体系、经济运营体系相关。而国则是踏踏实实地夯实基础,在制造业、工业、农业等国计民生上推动大模型落地。

所以中美对大模型的要求也不一样。美国要讲故事、开源、融资,中国要在真实场景落地。所以,即使美国的技术领先于中国,但是大概率大模型在各个领域的落地会率先在中国发生。

未来中国大模型会持续围绕“落地”这一主题发展,围绕真正产生经济效益、真正对国计民生有价值的方向发展。至于能否在技术上追上、赶超美国不重要,重要的是我们会比美国的市场产生多少更大的价值。

极新:未来,大模型的产业发展和大模型生产力之间是否会存在断代?因为风险的存在,所以目前大模型难以进入到产业的核心生产环节。那么大模型企业如何去把控场景里的风险,推动大模型产业落地?

宜博:大模型真的能替代原有的IT系统吗?答案肯定是No。尽管大模型具备一些IT系统所不具备的功能,但仍不能替代IT系统。来我国的大模型落地难度并不在于技术本身,而在于人们错误地期望它能够完全替代工业原有的系统或人员。

拥有大模型的加持、会用大模型才是最重要的能力。因为大模型能够赋能人,大幅缩短人所需要的学习成本、学习时间。例如,从我们要求公司全员用AI编程开始,生产率达到了以前的3-5倍。社会生产能力的提升在于人的能力提升,所以当大模型被社会大众广泛使用时,企业和社会的生产效率才能提升,这才是大模型价值所在,并非一定要将大模型实相化大模型演变成机器人、应用等形态不一定代表大模型真正落地,大模型用起来、效率提起来、工作和学习强度降下来、幸福感升上去,才算是真正的落地

我最近一直致力于给大家做大模型的培训,用自己的真实案例来做实训分享,教会大家会写、会用大模型。这件事情的价值远远大于把大模型做成应用。而且现在大模型入门门槛很低,目前国产大模型能力与 GPT-3.5、GPT-4相当了,再加上自己的知识库、行业库,再加上自己的企业私有数据,使用大模型不再是一件复杂的事情。

极新:现在大模型在很多场景里都落地了,相关应用的出厂速度也在加快。那我们如何提升产品的生命周期呢?接下来会不会有一款“巨无霸”AI应用出现?

宜博:这就涉及到AI native,AI第一性原理。

目前市面上所做的AI应用真的会是未来的AI应用吗?答案肯定是No。回望Mobile时代,真正的Mobile native应用是滴滴、是外卖、是微信、是抖音,而不是从PC端搬到移动端的应用。同理,真正的AI native 应用是在新的计算范式下产生的人力所不能及的工具,而不是简单将SaaS、Office搬到AI上。

在拥有了新的能力、新的第一性原理、新的范式下,拥有做到人类过往所不能及的能力的产品才是有想象空间的,而有想象空间的东西会变成一种刚需因为人的需求没有变,吃穿住行、听说读写。变的是承载这些功能的形式,例如从纸媒时代的书信到PC时代的Email再到Mobile时代的微信,其交流媒介的本质功能不曾变化,只是不断被更高维的产品所替代

所以AI时代,拥有无限生命力的产品一定是用新的范式满足人类刚需的新应用,且其能力要达到从前人力之所不能及大模型对世界的改变是一定的。

极新:大模型的进步会推动人类生活范式发生怎样的变化?

宜博:未来,人类所有已知的经验都能够文字化、图片化、视频化,然后有机器人收集数据、学习。人类日常生活的吃穿住行等刚需领域都会发生变化。机器人做菜、机器人定制服饰、机器人建房、智能自动驾驶都有望实现,有关产业的整个链条都会随之发生深刻的改变。甚至未来机器人代替人类进行听说读写都是有可能发生的。

直播漂流瓶环节

极新:感谢宜总的精彩分享,现在进入本场直播的最后一个环节:直播漂流瓶问题。

此次问题来源上期嘉宾奇酷网络董事长 吴渔夫:AI给您所在的行业带来了什么重构,给您的公司带了什么冲击,您是怎么应对的?

宜博:我们之前做的AI code选择了可视化编程语言VPL,NLP的技术路线其实是完全被LLM颠覆了的。包括低代码、无代码等传统编码工作,肉眼可见的1-2年内会被LLM2Code完全替代。打不过就加入,想清楚了,第一时间就all in到新的大模型世界来了。

极新:对于冲击所做出的应对,有产生效果吗?

宜博:对于我们来说,效果还是很显著的。

第一,在疫情期间,我们的传统业务遭受了严重冲击,包括大型项目、小型项目以及客户群体。据统计,疫情期间客户流失率高达90%。

第二,我们去年做了很多AI产品线,但并非每一条产品线都能够坚持做下来。因为这是一个创新试错的过程,是快速验证各项场景是否适应中国市场、场景是否存在需求的过程。经过不断试错,去年下半我们的产品线终于实现了盈亏平衡。

作为一家规模较小的企业,船小好调头,因此得以在业务上不断推陈出新。而我们的转型事实上得益于大模型的广泛应用;若缺乏大模型红利,公司的发展前景将难以想象。

极新:下一位嘉宾是必优科技创始人&CEO周泽安。必优科技是一家专注于人工智能领域的智能内容生成技术的科技型公司,致力于向企业提供30+垂直行业内容的智能创作SaaS服务,驱动内容创作效率革新,同时为企业提供一站式行业内容应用构建的SaaS平台解决方案。请宜总给他提出您的问题。

宜博:我的问题是:您的公司现在落地了哪些AI场景,您最想落地那个场景?这个场景AI能给您带来哪些收益或价值?

极新:我们今天探讨了在大模型生态不断发展、急速扩张的背景下,中间层迭代会对大模型生态产生怎样的影响?以及我们如何顺势而为?极新期待未来能继续与大家一起思考、探索大模型技术的未来。

最后,以一句话结尾:作为碳基生命,我们需要做的是构建想象力,把想象力发挥到极致才是我们现在区别硅基生命的最大优势。

更多干货分享敬请关注我们的公众号与视频号~超多精彩对话内容等待您的解锁!

关于极新:

极新是垂直于企服、硬科技的创投和行业研究媒体,致力于陪伴和记录科技企业进步和产业成长。已与多家互联网平台和创新企业深度对话和合作,包括华为云、飞书、钉钉等平台企业,以及神策数据、薪人薪事、微步在线、创客贴、诸葛智能等高成长公司。

声明:本文为OFweek维科号作者发布,不代表OFweek维科号立场。如有侵权或其他问题,请及时联系我们举报。
2
评论

评论

    相关阅读

    暂无数据

    极新

    专注科技趋势的研究型媒体...

    举报文章问题

    ×
    • 营销广告
    • 重复、旧闻
    • 格式问题
    • 低俗
    • 标题夸张
    • 与事实不符
    • 疑似抄袭
    • 我有话要说
    确定 取消

    举报评论问题

    ×
    • 淫秽色情
    • 营销广告
    • 恶意攻击谩骂
    • 我要吐槽
    确定 取消

    用户登录×

    请输入用户名/手机/邮箱

    请输入密码