在OpenAI 开源了个Swarm演示Multi-Agent后,MicroSoft则开源了magentic-one。虽然演示的功能不太一样,前者关于业务逻辑处理,后者关注文件访问这些基本操作,但这也是个Multi-Agent的例子。横向比较,MicroSoft的比OpenAI的略好,可以解决实际问题,真能用。但关键却不在这里,而是当你把两个项目放在一起做比较的时候,你就会发现一种无声的竞争已经开始。
大家有理由相信,随着Multi-Agent的智能原生程序变的越来越关键,这种竞争也会变得越来越激烈。
很多做战略分析的同学未必愿意读代码,愿意读代码的同学未必愿意花心思发现这种竞争的导火索,所以我在这里挑个事,还是把这事再说说。
OpenAI Swarm做了一期AI碰撞局,记录参见:人类优先还是智能优先?(暨AI碰撞局第十三期小记),等我空了针对magentic-one很有必要再做一期,也用非技术的语言再说说这个项目,并且做个二者机制的对比。
AI的兵家必争之地
什么是AI产业的兵家必争之地?
备受关注的大模型其实基本不是,除非只有一家一骑绝尘,别人的模型水平是1,你是10。
如果大模型是竞争最关键的地儿,那其实OpenAI Swarm基于GPT-4o,MicroSoftmagentic-one也是基于GPT-4o,大家没什么冲突。你做好模型,我用好模型,你好我好,根本没啥冲突的事。
关键就在于如果你预期的是超级应用,我预期的也是超级应用,那就随着超级应用的价值变大,那超级应用全链条的关键控制点上就会有你死我活的竞争。
OpenAI和MicroSoft之间暗搓搓冲突的根源倒不是在于某个应用,而在于谁对AI的基础设施有控制力。
那什么是未来各种超级应用的关键控制点?找出这个控制点就找到了AI的兵家必争之地。
OpenAI和MicroSoft的潜在冲突和下面这个被我随手画的简图有关:
其中智能原生应用相关的详细说明参见:真假◎智能原生(AI Native)应用极其挑战
因为大家在说MicroSoft,所以大家拿LLM based OS和过去的Windows做类比。
比如大家常用的Windows里面也封装有很多算法,但不管大家在Windows上写多少程序,也不会直接使用里面封装的算法,而是要通过Windows对外提供的接口。这些算法对你是透明的。谁知道Windows里面封装了多少了算法呢?
为什么这样呢,因为Windows里面不止有算法这些功能,还有账户管理、消息机制等把功能链接起来的部分。
上面两张图中,核心差异就是这个:
左侧的图仍然有系统的概念存在,而在右侧的图里,系统的概念消失了,模型不单履行逻辑判断的能力,也还取代了系统。
为什么这会导致剧烈冲突和竞争呢?
多大池子养多大鱼
智能原生应用因为数据所有权不同,所以注定有多个,但LLM based OS和LLM不是的。
这种基础设施是个超级大的大池子,但理论上在一个联通的市场空间里最后可能就剩下少数几个,并且Top1的占据50%以上的市场份额。
谁在AI时代干成这事,谁就是新时代的巨头。
OpenAI需要这个,而MicroSoft显然不会放过这个。
可左侧的构图里面有MicroSoft的位置,右侧的没有。
如果世界最终选择了右侧的图,那模型即系统,MicroSoft企业在AI这块地儿的基础设施上就没有位置!
一切刚刚开始
上面其实是一些猜想,这个猜想有个大前提:智能原生(AI Native)的应用会席卷各个应用场景。这还需要点时间,所以上面说的深层矛盾也就在开源项目上漏出一点端倪。
但数字的事最违反人类常规感知的点就是速度,假如说人类进化的速度是1,制度学问进化的速度是100,那数字的进化速度至少是100万甚至更高。
一两年前大家不知道智能原生到底是什么,但现在上述两个开源项目,每个都是智能原生的。
所以这种潜在冲突也可能在某个瞬间一下爆发出来,关键节点应该是智能原生应用的收入规模。
后续的走势
当前这类竞争会在无声状态开始,短期谁占优由用户的选择决定,但模型如果不继续迭代几次,应用的范围就还是会比较窄。MicroSoft这次开源项目附带的说明很直接道出了当前的状态。
1、2、3、4、5、6如果用一句话来简单概括就是你要把它放沙盒里面,然后人类看着点免得造成不可预计的损失。
具体来说就是下面这个任务在跑的时候没准就实行了别的什么,比如把系统搞宕机这种事是可能发生的。
https://github.com/microsoft/autogen/tree/main/python/packages/autogen-magentic-one
在这样一种前提下,这种新的智能原生模式不是不能用,而是范围会被限制的比较窄,你也不敢让它负责出错后代价特别大的事,比如直接做诊疗。
好消息是这种精度问题确定可解决,眼下不知道的是在通用的大模型上到底什么时候解决。
如果有足够的钱其实可以在比较垂直的领域走特斯拉 FSD12走过的路,如果没有那就必须等待通用大模型的升级,这二者其实等价。
理论上如果通用大模型足够强大,那专门训练一个E-To-E的模型和直接把数据扔给通用的模型其实并没有区别。
通用模型哪有什么智能边界!
终点上应用的边界其实是数据的边界。
不管怎么样,这里需要个拐点。否则大家上面说的就只有影子,而不会漏出真身。
这个拐点在技术上是通用大模型的进步,在商业上是出现一个Top的智能原生应用企业。互联网为什么变得如火如荼?本质是因为当年的BAT啊,BAT的那个收入量级确实足以启动一个时代。
这个临界点,我看美国人要到了。Tesla的FSD12就不说了,Glean的ARR一年翻4倍,5500万美金也不算少了。生意常在,而时代性机遇只有一次。
小结
更有趣的事情并不是老美怎么样,而是米国和我国的AI显然会分成两套很难联通的生态系,那国内的情况如何?走到最后米国和我国的生态系最终又会如何竞争、共存?互联网用了20几年来把这类问题交出答卷。从现在开始算,AI可能也需要这么多时间。所以潜在的小时代可能要过去了。
来源:36kr
|