Claude开始"操控电脑",高通与ARM的专利授权之争,AI的下一战在“端”

Claude开始"操控电脑",高通与ARM的专利授权之争,AI的下一战在“端”


Claude-3.5发布了一次版本更新,不仅代码能力大幅提升:今天上午,Cursor里OpenAI的o1模型造成的一个bug,Claude-3.5的新模型一次就帮我修好了。

最吸引眼球的是Claude随着模型发布推出了一个新的实验功能:Computer Use。顾名思义,用模型来操作电脑。

当然,出于用户体验和安全性考虑,新模型并不是直接操作我们的电脑桌面,而是通过新建一个虚拟机,在虚拟机里完成所有操作。小伙伴们第一时间进行了测试,并发布了视频。

【一镜到底】Claude3.5的Computer Use功能测试 公众号:NB Lab无边界实验室

Claude的computer use操控电脑下载论文实测

说实话,这个功能确实是包括我在内的很多“程序员”期待已久的. 从功能的实现路径上看,跟Rabbit R1的LAM功能很像。不过,因为Rabbit R1有个实体的硬件拿在手里,感觉会更酷一点。

简单讲一下Claude的这个新功能的评价:

  1. 期待已久,而且在我看来模型就该实现这样的功能;
  2. 处理速度还是很慢,因为不断要截图发送到云端模型处理,步骤较多,慢是自然的;
  3. 从处理流程看,模型的逻辑能力或者说思考能力完全在线,但是准确度有待提高;
  4. 要提高准确率,训练模型当然是重要的基础,但提高图像分辨率,推理端使用精度更高的模型,甚至更重要;
  5. 所以,问题在哪里?在模型“推理”(inference),要精度更高,速度更快,成本更低。

如何实现,对于Anthropic,以及OpenAI这样的头部模型开发者而言,答案当然是在英伟达的最新GPU。我之前也解释过:GB200推理性能的三十倍提升如何得来?

通过NVL-72的配置,推理性能直接提升至少30倍,加上推理的软件优化,同样的模型,成本变成之前的百分之一,很轻松就可以达到。

如今模型使用率越来越高,新功能不断推出,这种推理的需求肉眼可见。所以,对于英伟达新一代GPU(Blackwell)的需求继续高涨也符合常理。黄仁勋所说的越来越多算力是用在推理上也符合现状。

所以,英伟达的GPU依旧洛阳纸贵,但是构建方式已经开始变化了,这部分涉及到投资机会的改变,不方便在公众号讨论。

另一方面,无论是早先的Rabbit R1,Google和苹果的手机AI,微软的AIPC,还是现在Claude-3.5的computer use,甚至包括未来几年确定量产的人形机器人。AI在“端”上的趋势将比云更强。

精度更高,速度更快,成本更低。端侧推理芯片的真正竞争才开始,当然,进程肯定会比英伟达一家独大的云端市场,有看点的多。

端侧芯片上,苹果是毫无争议的综合排名第一。我写过不止一篇文章介绍过。例如,写在Apple新一代M3发布之际,这里也不再赘述了。

最新的消息来自于高通与ARM的官司。

其实这个诉讼持续了好几年,起因来自于高通之前收购的芯片公司Nuvia(与苹果M系列芯片有千丝万缕的联系)。高通最新推出面向的AIPC的X-Elite芯片基本就是源自于该公司的设计,芯片都是基于ARM架构的,与高通的手机芯片骁龙一样。但是高通却“巧妙的节省”了大笔ARM专利授权费。

如今,ARM将此事扩大,真正的用意,还是直指具备庞大前景的AIPC芯片市场。一直有消息说,ARM自己会推出基于PC的SoC芯片。虽然高通推出的X-Elite市场表现甚至略低于预期,但是至少在Windows系统上抢占了先机。这对ARM长期的芯片战略是非常不利的。因此,在我看来,这件事情可能不会那么快了结。

这只是从一个侧面反映竞争的激烈程度。然而,AI进入“端”的竞争才开始,好戏还在后头,大把机会也还在后头。

相比越来越无聊的“云”,我对“端”充满期待。

← Back to Blog