谷歌智能体主管:芯片之外,中美AI拼的是能源

AI 新资讯6小时前发布 AI
808 0 0

7月8日消息,谷歌智能体业务主管奥马尔·沙姆斯(Omar Shams)近日做客播客节目《Manifold》,接受了密歇根州立大学计算数学教授、大模型应用开发商Superfocus.ai创始人Steve Hsu的专访。沙姆斯曾创办AI初创公司Mutable,后被谷歌收购。

在对话中,沙姆斯围绕AI算力瓶颈、智能体应用落地、人才竞争与行业结构变迁等关键议题,提出了诸多观点。以下为此次对话的核心内容:

1. AI发展两大瓶颈:芯片和能源。沙姆斯指出,芯片固然重要,但能源供应才是AI长期发展的关键制约。

2.美电网难撑AI能耗,美国电网扩容缓慢,而中国每年新增电力产能已超英法总和,能源能力差距显现。

3. 为突破地球能源极限,沙姆斯提出可在月球或太空部署太阳能电站,为AI提供算力能源。

4. 沙姆斯表示,模型性能增长虽符合对数规律,但在特定规模下会出现“跃迁”,学界需建立新理论理解这种“相变”现象。

5. AI智能体正在重塑软件开发结构。AI工具正自动化多步骤编程任务,初级工程师被边缘化,团队更依赖技术领导者。

6. “隐性知识”决定AI项目成败,沙姆斯强调,AI领域真正决定项目成败的,是那些难以量化的直觉、经验和判断力。这类“隐性知识”虽难传授,却是顶尖AI人才的核心竞争力。

7. 沙姆斯看好AGI未来,并提醒年轻人:想跟上AI的演化节奏,光靠知识不够,唯有多实践、真动手,才能掌握未来主动权。

以下为沙姆斯分享最新精华内容:

美国电网拖后腿?去月球建太阳能电站为AI供电

问:听说OpenAI的创立跟DeepMind卖给谷歌有关?当年马斯克和PayPal联合创始人卢克·诺赛克为了阻止谷歌收购DeepMind,在一个派对上躲进壁橱,给DeepMind创始人德米斯·哈萨比斯打电话,说愿意匹配谷歌6亿美元的报价。但哈萨比斯直接回绝:“你们就算凑够钱,也给不了谷歌能提供的算力资源。”后来马斯克担心谷歌垄断AGI技术,这才支持创建了OpenAI。这事你知道吗?

沙姆斯:我没听过这个故事。不过我现在在Alphabet工作,有些话不方便多说。但总的来说,这场AI竞赛确实有很多值得讨论的地方。AI行业确实面临两大瓶颈:芯片和能源供应。说到底,没有足够的电力支撑,再强的算法也跑不起来

问:说到中美AI竞争,这两个问题都会浮现出来。芯片方面是英伟达与华为的对决,电力方面的差距则更大。美国的电网供电能力提升非常困难,而中国的电力生产增速却非常惊人。中国每年新增的电力产量相当于整个英国或法国的年发电量,而美国则需要七年才能达到这一水平。如今,中国的电力增长速度是美国的两倍。因此,如何解决能源供给问题,将成为决定AI未来发展的关键。电力方面的缺口如何补足?

沙姆斯:说实话,美国电网升级基本没戏,各种法规限制根本快不起来。我现在甚至在想,要不要把发电站搬到太空或月球上。虽然这听起来像天方夜谭,但谷歌前CEO埃里克·施密特已经在行动了,他投资的Relativity Space公司就在研究这个。他想要把数据中心搬到太空,因为那里的能源供应不像地球上受限严重

问:能源会来自太阳能发电板,还是在太空中建设绕轨道运行的反应堆?

沙姆斯:能源的来源可能主要是太阳能,而非核能这是因为核能在国际上受到严格的限制,并且如果火箭发射时发生事故,可能会引发极其严重的后果,因此不适合在太空使用。

问:你不觉得要收集这么多能量,可能需要在太空中部署1平方公里甚至10平方公里的太阳能板吗?

沙姆斯: 是的,确实是个非常疯狂的想法。我做过一些计算,如果要达到一吉瓦的功率,可能确实需要差不多1平方公里的太阳能板,甚至更多。我的直觉告诉我,这将需要大量的资源才能送到太空。因此,这的确是一个巨大的挑战。

而且,太阳能板不能部署在低地轨道。如果是10平方公里的太阳能板,像我之前做的计算,天文学家可能会强烈反对这样的设计方案。所以,最理想的部署位置是类似拉格朗日点(Lagrange point)的地方。

所谓拉格朗日点,就是太阳系内,或者任何两个天体之间的特殊位置,物体可以相对于这两个天体保持稳定的轨道。幸运的是,太阳系中有很多适合部署太阳能板的拉格朗日点。

AI编程革命幕后推手:他比Copilot更早入局,却鲜为人知

问:你创办了Mutable公司,并作为创始人和CEO经营了三年,这家公司主要是开发AI编程工具的,对吧?

沙姆斯: 是的,没错。我在2021年11月开办了这家公司。我们算是进入AI开发工具领域的先行者之一,几乎在同一时期,Copilot也开始了。现在,这个行业发展得非常快,像Cursor这样的AI开发工具公司,已经做到每年超过1亿美元的收入。如今,很多这样的公司都迅速实现了收入破亿。

问:我知道Mutable在很多现在已经很常见的概念上先行一步。我记得“AI大神”卡帕西(Andrej Carpathy)最近做了一个主题演讲,讲到了一些理念。虽然他没提到你,但我认为这些想法应该是你们最早提出的,包括如何用某种方式结合上下文来理解软件,或者如何从公司代码库中生成更好的文档。我觉得你们在Mutable做了很多有趣的事情。你愿意谈谈这些吗?

沙姆斯: 的确,很多想法是Mutable最早提出的,并且可能对今天的产品产生了较大的影响。我看到很多开源代码库,虽然你可以通过不断学习和积累经验快速上手,但总是会有点慢。所以,我就在想,为什么不让AI来帮忙呢?为什么不让AI写一篇像维基百科一样的文章,来解释这些代码呢?于是我想到了一个名字,叫做Auto Wiki。我们做了这个项目,利用递归总结来解释代码,结果项目在2024年1月发布后非常火爆。

最有趣的技术部分,其实正是卡帕西在演讲中提到的。他谈到,Auto Wiki实际上变成了一个非常有用的上下文填充工具,因为大语言模型(LLM)能从中受益很多。事实上,我觉得可以用“拟人”的方式训练LLM,因为它们的训练数据基本上来自于人的数据和经验。

所以,拥有这些代码总结功能,实际上对LLM帮助很大,不仅是对于检索(比如RAG——检索增强生成)有用,生成部分也能从中受益,特别是在推理过程中。

问:在构建Auto Wiki的过程中,是否需要人工修正某些问题才能进一步生成代码?

沙姆斯: 我们有相关功能,允许用户修改生成的内容,虽然这个功能并没有广泛使用。事实上,你不需要这样做。

的确,AI生成的内容有时会出现所谓的“幻觉”(hallucinations),但我认为已经有些技术能够有效地应对这个问题。即使存在幻觉问题,Auto Wiki仍然比没有它要好得多,特别是在处理轻量级问题时。

所以,在这个全自动过程中,模型会先浏览整个代码库,理解它,并生成持续更新的文档。

从某种角度来看,这其实就像是在进行推理:模型首先生成内容,之后它在做其他任务时,会参考之前的推理结果来加深对代码的理解,并进一步进行生成

从Llama到AGI:扎克伯格花1亿买的不是程序员,是“未来先知”

问:马克·扎克伯格为什么愿意花1亿美元挖一个人?他到底看中这个人什么?是不是某些人的能力真的能给公司带来天壤之别?

沙姆斯: 虽然我不能代表马克发言,也不确定1亿这个数字是否准确,但确实有报道提到他从OpenAI挖走了几位顶尖人才。说到人才,我觉得一个公司的成功与失败,往往取决于团队的配置和每个人的角色分工。

但从某种角度看,团队更像是飞机的结构——单单有强劲的引擎,如果没有机翼,飞机是飞不起来的。同样,单靠某个天才也不行。扎克伯格愿意为顶尖人才支付高额薪水,肯定有他的道理。 这种现象在创业者身上很常见:即便技术能力很强的创始人,如果缺乏沟通和团队协调的能力,最终也会失败。因为投资人通常不懂技术,决策大多依赖直觉和感觉。

问:但扎克伯格组建超级智能团队时也靠感觉吗?

沙姆斯: 这个我不敢妄加评论,不过必须承认,扎克伯格确实是一个非常出色的创始人。说到他的决策,我认为这是一种非常大胆的冒险——这种豪赌,只有像他这样拥有超级投票权的创始人CEO才敢做。毕竟Meta的现金流非常充裕,相比其他一些烧钱项目,投资AGI(通用人工智能)算是一项相对明智的选择。我觉得现在评判还为时过早,我们可以等一段时间再看看结果。

问:换作我有他的资源,我也会想:为什么不组建最强战队?我并非质疑扎克伯格的战略决策,而是好奇:花1亿美元挖所谓最优秀人才真是最优策略吗?表面看这很合理——毕竟真正懂行的人有限。但反方观点同样成立:这类人才其实并不稀缺

沙姆斯: 这里确实存在微妙的矛盾:如果行业没有真正的“技术机密”,那么为什么还要为人才支付天价呢?我个人的理解是,企业购买的并不是具体的技术,而是那些“复合型经验”,或者说是“隐性知识”。

这些人才带来的价值,更多是通过他们在实际工作中积累的判断力和直觉,能够帮助公司避免一些常见的错误,少走弯路。比如,扎克伯格可能从Meta的Llama项目中吸取了教训。

开发AI就像是造飞机:即使你掌握了所有理论,仍然需要有人告诉你“该先拧哪个螺丝”。毕竟,AGI时代的到来已是指日可待,他宁愿多付些钱,也不愿错失这个机会。你可以这么理解:即使他花得多,但Meta有能力承受得起,而获得的回报可能也会是巨大的。

30%程序员两年内失业,企业的用人逻辑已变

问:如果有人告诉你,“我每天都在社交媒体上看到一个视频,说某个智能体能为我做所有事情,但我认识的人实际上并没有从智能体那里获得很多价值”,你会怎么回答呢?智能体现在到底在哪些方面有用,哪些只是炒作呢?

沙姆斯: 我认为这个领域的确发展得非常快,但许多进展还需要时间才能普及。虽然经济学家泰勒·科文(Tyler Cowen)曾说过,AGI类似于电气化,要花100年才能渗透到经济中,但我不完全认同这个观点。

我觉得这个速度可能比他想象的要快一些。的确,有很多监管上的障碍,也有很多人需要时间去改变观念和习惯,但在我看来,AGI的渗透速度将比传统技术革命要快得多。

很多经典物理学家一生都不接受量子力学的概念,直到他们去世时,这才成为常识。类似的认知变革,正在AI领域重演。有些传统的工程师至今仍不相信AI的能力,这种现象让我觉得很难理解。

以我自己参与的项目为例,像Cursor、GitHub Copilot这些工具,已经极大地改变了程序员的工作方式。现在,即使是创业公司,软件质量的标准也被显著提高——低质量的代码再也无法轻易通过审核,这种压力推动了整个行业的进步。

在法律领域,像Harvey这样的AI公司也已经开始创造可观的收益。尽管其他行业的进展可能较慢,但在白领工作领域,AI助手的引入已经成为必然趋势。我不能确定这种趋势对就业市场的具体影响,但可以肯定的是,工作流程会发生巨大变化——这些AI助手要么辅助人类工作,要么直接取代部分工作。

问:有报道称,2025年计算机科学和软件工程专业的毕业生,面临较为低迷的就业市场,招聘机会有所下降,甚至就业率增加的幅度也很小。那么,这种情况有多少是由于AI驱动的生产力提升所导致的?

沙姆斯: 很难准确判断,但我认为主要原因是科技公司正在收缩招聘规模。

几年前,行业确实进入了一个疯狂招聘的阶段,几乎只要懂一点编程就能拿到offer,但这种泡沫显然不可持续。即使经历了裁员潮,许多公司为了保持员工士气,裁员力度往往也不足,结果导致现在很多公司正处于“过度招聘后的后遗症”阶段。

但从更根本的角度来看,计算机教育体系和AI发展的脱节也是一个大问题。大多数高校课程依然专注于离散数学、算法理论等传统内容,忽视了实际软件开发技能的培养。这使得很多应届生缺乏工程实践能力——而这正是我过去很少雇佣刚毕业新人的原因,因为他们通常不能给公司带来多大帮助。

当然,也有例外:我曾经雇佣过一位19岁的普林斯顿高中生(未上大学),他通过机器人项目等实践展现了惊人的能力。这说明,如果你能展示出能力,完成项目,甚至在一些情况下,学历不再那么重要。

像YC(Y Combinator)这样的创业公司更看重你是否能展示实际能力、是否能独立完成任务和行动。我认为,未来“行动力”将会变得越来越重要。

问:你认为当前软件工程师岗位减少是多重因素共同作用的结果。一方面,科技公司在后疫情时代过度招聘后正在收缩规模,高利率环境也加剧了这一趋势;另一方面,AI工具确实提升了生产效率,是这样吗?

沙姆斯: 我认为AI的影响不能忽略。现在,许多初级工程师的工作任务都可以由AI代替。岗位需求正在转向团队领导(TL)或者技术主管(TLM),这些人需要管理AI智能体。

现在的问题是,企业可能不再需要那么多初级工程师了——毕竟,培养新人短期内往往会带来净损失,之前雇佣他们主要是为了人才储备。

在初期阶段,雇佣新人可能会有一定的负面影响,甚至拖慢进度,但你还是需要雇佣人来维持公司的增长。而现在,许多公司可能觉得他们可以依赖更少的员工,甚至通过智能体来完成那些本应由初级工程师完成的工作

关于AI对就业的影响,我还想提两个有趣的观点:

Anthropic CEO 达里奥·阿莫代伊(Dario Amodei) 预测,随着AI的发展,未来两年内会出现大规模裁员。我和在Anthropic工作的朋友打了个赌,他认为两年后的裁员率可能会达到30%。他认为像特斯拉这样的公司,即使已经比较精简,未来也可能面临裁员。我个人认为,30%的裁员比例可能有些过高,但即便如此,像阿莫代伊这样的业内人士认为AI的影响比我们预想的要大得多。

Shopify创始人兼CEO 托比·卢克(Tobi Lutke) 虽然没有直接提到裁员问题,但他明确表示希望通过AI提高团队的效率,而不是继续扩招。这种趋势在许多企业中都能看到,许多公司现在专门设立岗位,研究如何用AI实现业务自动化。

这引出了一个经济学悖论:随着AI不断提升生产力,企业是否真的还需要雇佣那么多员工?这个问题很难预测,可能会产生深远的影响。

问:我想区分一下AI工具和智能体之间的区别。比如,你可以向ChatGPT发送查询,要求它修改某些内容或写一个初稿,但我个人认为这并不算智能体。智能体应该是一个更具自主性、能够在没有人类监督的情况下执行多步任务的系统。现在有这样的工具了吗?

沙姆斯: 绝对有!其实,我之前提到的所有工具,我认为它们都可以算作是智能体。例如,你可以在Cursor等工具的设置中,调整选项,让它不需要你确认每一步操作。这样,你就可以让它“尽情发挥”,不仅仅是写一个函数,它甚至能为你构建一个完整的功能模块,或者一个Web应用,甚至更多。我觉得它们已经做得非常出色了。随着AI不断进步,它能够处理的任务范围会越来越大,能完成更复杂的工作。

另外,这种提高精度的观点也经常被用来解释为什么人们愿意在AI数据中心、芯片和能源上投入巨资。人们常将扩展定律描述成一种奇迹,仿佛它能带来令人惊叹的效果,但实际上这是一种对数增长,并没有那么“神奇”。我认为,能为这种现象提供合理解释的唯一方式,就是“精度不断提高”。

此外,可能还存在一个解释,就是“涌现能力”(Emergent abilities)的概念。就像飞机起飞的关键时刻——当所有条件都达到了临界点时,系统能力会发生质的飞跃。智能体的发展可能也类似,这种变化是很难预测的。

最后,我想提一个有趣的物理类比:我们目前对AI扩展定律的理解,实际上就像蒸汽机时代对热力学的理解一样初级。真正的突破,可能要等到我们发现AI领域的“统计力学”,即解释现有扩展定律背后机制的理论体系。这是AI研究者们要解决的重要问题。

© 版权声明

相关文章

暂无评论

none
暂无评论...