不知大家对前段时间OpenAI连续12天的发布会,还有没有印象,我是着实被惊着了。抛开发布的各式产品大招,总有一种怎么还没开完的即视感。
凭一己之力将2024年的AI水平和能力极限拉高,那么2025年的人工智能又将通往何处?
正好我们看到这样一篇2025年人工智能的10个预测深度文章,全文7000多字,够深够广。作者风险投资家罗布·托斯,为我们描绘了一个令人兴奋且充满挑战的人工智能未来。
他预测,2025 年,人工智能将在技术、商业和政策层面发生翻天覆地的变化。从 Meta 的商业模式转变、缩放定律在新的领域应用,到人工智能在太空中的发展、自动驾驶汽车的普及,再到人工智能安全问题的凸显,这些预测都将对我们的生活产生深远影响。我们试图进行一个分享。
以下,enjoy:
预测1:Meta 将开始对其 Llama 模型的使用收费Meta 是开放式 AI 的世界标杆。这是一个引人入胜的企业战略案例研究,尽管 OpenAI 和 Google 等竞争对手一直对其前沿模型保持闭源并收取使用费,但 Meta 却选择免费提供其最先进的 Llama 模型。
因此,当 Meta 明年开始向使用 Llama 的公司收费时,很多人都会感到惊讶。
需要明确的是:这并不是说 Meta 将使 Llama 完全闭源,也不意味着任何使用 Llama 模型的人都必须为它们付费。
相反,预计 Meta 将使 Llama 的开源许可条款更加严格,这样在一定规模以上的商业环境中使用 Llama 的公司将需要开始付费才能访问模型。
从技术上讲,Meta 现在已经实现了这个功能的一个限制版本。该公司不允许最大的公司(云超大规模企业和其他每月活跃用户超过 7 亿的公司)自由使用其 Llama 模型。
早在 2023 年,Meta 首席执行官马克·扎克伯格就表示:“如果你是微软、亚马逊或谷歌这样的公司,而且你基本上是在转售 [Llama],那么我们认为我们应该从中分得一部分收入。我不认为短期内这会带来大量收入,但从长远来看,希望这能有所作为。”
明年,Meta 将大幅扩展使用 Llama 必须付费的组织范围,纳入更多大型和中型企业。
Meta 为什么会做出这样的战略转变?
跟上 LLM 前沿的步伐成本极高。如果 Meta 希望 Llama 能够与 OpenAI、Anthropic 和其他公司的最新前沿模型保持同步或接近,那么它每年需要投资数十亿美元。
Meta 是全球最大、资金最雄厚的公司之一。但它也是一家上市公司,最终要对股东负责。随着构建前沿模型的成本飞涨,Meta 投入如此巨额资金来训练下一代 Llama 模型,却不期望获得任何收入,这种做法越来越难以为继。
爱好者、学者、个人开发者和初创公司明年仍可免费使用 Llama 模型。但 2025 年将是 Meta 认真考虑将 Llama 货币化的一年。
预测2:缩放定律将在文本以外的领域被发现和利用特别是在机器人技术和生物学领域
近几周来,人工智能领域中没有哪个话题比缩放定律引发了更多讨论,以及缩放定律是否即将终结的问题。
缩放定律最初在2020 年的 OpenAI 论文中提出,其背后的基本概念很简单:在训练 AI 模型时,随着模型参数数量、训练数据量和计算量的增加,模型的性能会以可靠且可预测的方式提高(从技术上讲,其测试损失会减少)。缩放定律是 GPT-2 到 GPT-3 再到 GPT-4 的惊人性能改进的原因。
与摩尔定律一样,扩展定律实际上并不是定律,而只是经验观察。过去一个月,一系列报告表明,主要人工智能实验室发现,继续扩展大型语言模型的收益正在减少。这有助于解释为什么 OpenAI 的 GPT-5 发布不断推迟。
对扩展定律停滞不前的最常见反驳是,测试时计算的出现为扩展开辟了一个全新的维度。也就是说,与在训练期间大规模扩展计算不同,OpenAI 的 o3 等新推理模型可以在推理期间大规模扩展计算,通过使模型“思考更长时间”来解锁新的 AI 功能。
这是很重要的一点。测试时计算确实代表了扩展和 AI 性能改进的一条令人兴奋的新途径。
但关于缩放定律的另一点更为重要,但在今天的讨论中却很少被重视。几乎所有关于缩放定律的讨论——从 2020 年的原始论文开始,一直延伸到今天对测试时计算的关注——都以语言为中心。但语言并不是唯一重要的数据模式。
想想机器人技术、生物学、世界模型或网络代理。对于这些数据模式,缩放定律尚未饱和;相反,它们才刚刚起步。事实上,迄今为止,这些领域中缩放定律存在的严格证据甚至尚未公布。
为这些较新的数据模式构建基础模型的初创公司(例如生物学中的 EvolutionaryScale、机器人技术中的 Physical Intelligence、世界模型中的 World Labs)正在寻求识别和驾驭这些领域的缩放定律,就像 OpenAI 在 2020 年代上半叶成功驾驭 LLM 缩放定律一样。明年,我们期待看到这些领域取得巨大进步。
不要相信这些传言。缩放定律不会消失。到 2025 年,它们将像以往一样重要。但缩放定律的活动中心将从 LLM 预训练转移到其他模式。
预测3:唐纳德·特朗普和伊隆·马斯克将发生激烈争吵这将对人工智能世界产生重大影响
美国新政府将带来一系列人工智能政策和战略转变。为了预测特朗普总统任期内人工智能风向,考虑到马斯克在当今人工智能领域的核心地位,关注这位候任总统与埃隆·马斯克的密切关系可能是一个不错的选择。
我们可以想象,在特朗普政府的领导下,马斯克可能会以多种不同的方式影响人工智能相关的发展。鉴于马斯克与 OpenAI 的极度敌对关系,新政府在与行业打交道、制定人工智能法规、授予政府合同等方面可能会对 OpenAI 采取不那么友好的态度。(这是 OpenAI目前担心的真正风险。)
另一方面,特朗普政府可能会优先支持马斯克自己的公司:例如,削减繁文缛节,使 xAI 能够建立数据中心并在前沿模型竞赛中占据优势;迅速批准特斯拉部署自动驾驶出租车车队;等等。
更根本的是,与特朗普听取意见的许多其他技术领袖不同,埃隆·马斯克非常重视人工智能的安全风险,因此他主张对人工智能进行严格的监管。他支持加州备受争议的 SB 1047 法案,该法案旨在对人工智能开发者施加有意义的限制。因此,马斯克的影响力可能会导致美国对人工智能的监管环境更加严厉
然而,所有这些猜测都存在一个问题。唐纳德·特朗普和伊隆·马斯克的亲密关系将不可避免地破裂。
正如我们在特朗普第一届政府期间一次又一次看到的那样,特朗普盟友的平均任期非常短,即使是那些看似最坚定的盟友,从杰夫·塞申斯到雷克斯·蒂勒森,再到詹姆斯·马蒂斯,再到约翰·博尔顿和史蒂夫·班农。(当然,谁能忘记安东尼·斯卡拉穆奇在白宫的 10 天任期?)特朗普第一届政府的副手中,很少有人至今仍对他忠心耿耿。
唐纳德·特朗普和伊隆·马斯克都是复杂、反复无常、难以预测的人物。他们很难共事。他们让人精疲力竭。到目前为止,他们新建立的友谊已被证明是互惠互利的,但仍处于蜜月期。我预测,在 2025 年结束之前,这种关系就会恶化。
这对人工智能世界意味着什么?
这对 OpenAI 来说是个好消息,但对特斯拉股东来说却是个坏消息。对于那些关心人工智能安全的人来说,这将会是一个失望,因为这几乎可以肯定,在特朗普的领导下,美国政府将对人工智能监管采取不干预的态度。
预测4:Web 代理将成为主流成为消费者 AI 领域的下一个主要杀手级应用
想象一下,在一个你永远不需要直接与网络互动的世界里。每当你需要管理订阅、支付账单、安排医生预约、在亚马逊上订购东西、预订餐厅或完成任何其他繁琐的在线任务时,你都可以简单地指示人工智能助手代你完成这些任务。
“网络代理”这个概念已经存在多年了。如果这样的产品真的存在并且有效,那么毫无疑问它将是一款非常成功的产品。然而,目前市场上还没有一款通用的网络代理。
像 Adept 这样的初创公司,凭借一支优秀的创始团队筹集了数亿美元,但却未能实现其愿景——已经成为这一类别的警示故事。
明年将是网络代理最终开始发挥良好作用并进入主流的一年。语言和视觉基础模型的持续进步,加上新推理模型和推理时间计算带来的“系统 2 思维”能力的最新突破,将意味着网络代理将准备好迎接黄金时段。
换句话说,Adept 的想法是正确的,只是为时过早。在创业公司中,就像在生活中的许多事情一样,时机就是一切。
Web 代理将找到各种有价值的企业用例,但 Web 代理近期最大的市场机会将来自消费者。尽管最近人工智能热潮四起,但除了 ChatGPT 之外,很少有 AI 原生应用取得突破并成为主流消费者的成功。Web 代理将改变这一现状,成为消费者 AI 领域下一个真正的“杀手级应用”。
预测5:将人工智能数据中心引入太空的多项严肃努力将初见成效
2023年,阻碍AI发展的关键物理资源是GPU芯片。2024年,它变成了电力和数据中心。
在人们争相建设更多人工智能数据中心的过程中,2024 年很少有故事情节比人工智能巨大且快速增长的能源需求更受关注。由于人工智能的蓬勃发展,全球数据中心的电力需求在数十年内一直保持平稳,预计在 2023 年至 2026 年期间将翻一番。在美国,到 2030 年,数据中心预计将消耗所有电力的近 10%,高于 2022 年的 3%。
当今的能源系统根本无法应对人工智能工作负载带来的巨大需求激增。这两个价值数万亿美元的系统——我们的能源网和我们的计算基础设施——之间的历史性碰撞即将来临。
今年,核能作为解决这一难题的可能方案而势头强劲。核能在许多方面都是人工智能的理想能源:它零碳排放、全天候可用且几乎取之不尽。但现实情况是,考虑到漫长的研究、项目开发和监管时间,新核能要到 2030 年代才能解决这个问题。这适用于传统的核裂变发电厂、下一代“小型模块化反应堆”(SMR),当然也适用于核聚变发电厂。
明年,一个应对这一挑战的非常规新想法将会出现并吸引真正的资源:将人工智能数据中心放到太空中。
太空中的人工智能数据中心,乍一看,这听起来像是一个关于风险投资公司试图将太多创业流行语结合起来的糟糕笑话。但实际上可能有些道理。
在地球上快速建造更多数据中心的最大瓶颈是获取必要的电力。轨道上的计算集群可以全天候享受免费、无限、零碳能源:太空中永远有太阳在照耀。
当然,还有许多实际挑战有待解决。一个明显的问题是,能否以及如何以经济高效的方式在轨道和地球之间传输大量数据。这是一个悬而未决的问题,但它可能是可以解决的,因为有希望的工作正在使用激光和其他高带宽光通信技术进行。
Y Combinator 旗下的一家热门初创公司 Lumen Orbit最近筹集了1100 万美元来实现这一愿景:在太空中建立一个多千兆瓦的数据中心网络来训练人工智能模型。
正如 Lumen 首席执行官 Philip Johnston 所说:“你不必支付 1.4 亿美元的电力费用,只需支付 1000 万美元用于发射和太阳能。”
Lumen 不会是唯一一家在 2025 年认真对待这一概念的组织。
其他初创企业竞争对手将会出现。如果看到一家或多家云超大规模企业也沿着这条路线开展探索性努力,请不要感到惊讶。亚马逊已经拥有通过Kuiper 项目将资产送入轨道的丰富经验;谷歌长期以来一直为此类登月计划提供资金;甚至微软对太空经济也不陌生。埃隆·马斯克的 SpaceX 也可能在这里有所作为。
预测6:人工智能系统将通过语音图灵测试
图灵测试是人工智能性能最古老、最著名的基准之一。
为了“通过”图灵测试,人工智能系统必须能够通过书面文本进行交流,使得普通人无法分辨自己是在与人工智能互动还是在与另一个人互动。
由于大型语言模型近年来取得的巨大进步,图灵测试已成为 2020 年代已解决的问题。
但书面文字并不是人类交流的唯一方式。
随着人工智能日益多模式化,我们可以想象图灵测试一个新的、更具挑战性的版本——“语音图灵测试”——其中人工智能系统必须能够通过语音与人类互动,并且互动技巧和流畅度要与人类说话者难以区分。
语音图灵测试对于当今的人工智能系统来说仍然遥不可及。解决这个问题需要更有意义的技术进步。
延迟(人类说话和人工智能响应之间的滞后)必须减少到接近零,才能达到与另一个人交谈的体验。语音人工智能系统必须能够更好地实时处理模棱两可的输入或误解。
例如,当它们在说话中途被打断时。它们必须能够进行长时间、多轮、开放式的对话,同时记住讨论的早期部分。至关重要的是,语音人工智能代理必须学会更好地理解语音中的非语言信号。例如,如果人类说话者听起来很恼火、很兴奋或很讽刺,这意味着什么,并在自己的语音中产生这些非语言提示。
2024 年即将结束,语音 AI 正处于一个激动人心的转折点,这得益于语音对语音模型出现等根本性突破。如今,无论是技术还是商业,很少有 AI 领域能比语音 AI 发展得更快。预计语音 AI 将在 2025 年实现飞跃。
预测7:在构建能够自主构建更好的人工智能系统方面将取得重大进展
递归式自我改进人工智能的概念几十年来一直是人工智能圈内经常讨论的话题。
例如,早在 1965 年,艾伦·图灵的亲密合作伙伴 IJ Good 就写道:“让我们将超级智能机器定义为能够远远超越任何人(无论多么聪明)所有智力活动的机器。由于机器设计是这些智力活动之一,因此超级智能机器可以设计出更好的机器;毫无疑问,这将带来‘智能爆炸’,而人类的智能将远远落后。”
人工智能能够发明更好的人工智能,这是一个令人着迷的概念。但即使在今天,它仍然带有一丝科幻气息。
然而,尽管这一概念尚未得到广泛认可,但实际上它已经开始变得更加现实。人工智能科学前沿的研究人员已经开始在构建能够自行构建更好的人工智能系统的人工智能系统方面取得切实进展。
明年,我们期望看到这一研究领域成为主流。
迄今为止,此类研究最引人注目的公开案例是 Sakana 的《AI Scientist》。《AI Scientist》于 8 月发表,有力地证明了 AI 系统确实可以完全自主地开展 AI 研究。
Sakana 的 AI Scientist 负责执行人工智能研究的整个生命周期:阅读现有文献、提出新颖的研究想法、设计实验来测试这些想法、进行这些实验、撰写研究论文来报告其研究结果,然后对其工作进行同行评审。它完全自主地完成这些工作,无需人工干预。AI Scientist 撰写的一些研究论文可以在线阅读。
有传言称 OpenAI、Anthropic 和其他研究实验室正在为“自动化 AI 研究人员”这一想法投入资源,尽管目前尚未得到公开承认。
随着人们越来越广泛地认识到自动化人工智能研究实际上正在成为一种现实的可能性,我们将为 2025 年该领域的更多讨论、进步和创业活动做好准备。
不过,最有意义的里程碑将是一篇完全由人工智能代理撰写的研究论文首次被顶级人工智能会议接受。(由于论文是盲审的,会议审稿人直到论文被接受后才会知道论文是由人工智能撰写的。)明年,如果人工智能的研究成果被 NeurIPS、CVPR 或 ICML 接受,请不要感到惊讶。这将是人工智能领域一个令人着迷、充满争议和历史性的时刻。
预测8:OpenAI、Anthropic 和其他前沿实验室将开始“向上移动”,将其战略重点转向构建应用程序
建立前沿模型是一件困难的事情。
它的资本密集程度令人吃惊。前沿模型实验室耗费的资金量创历史新高。OpenAI 几个月前筹集了创纪录的 65 亿美元资金——而且不久之后它很可能不得不筹集更多资金。Anthropic、xAI 和其他公司的情况也类似。
转换成本和客户忠诚度较低。人工智能应用程序通常被构建为与模型无关的,来自不同提供商的模型可以根据不断变化的成本和性能比较无缝地交换。
而随着Meta的Llama、阿里巴巴的Qwen等先进开放模式的出现,技术商品化的威胁也不断逼近。
OpenAI 和 Anthropic 等 AI 领军企业不能也不会停止投资构建尖端模型。但明年,为了开发利润率更高、差异化更强、粘性更强的业务线,预计前沿实验室将大力推出更多自己的应用程序和产品。
当然,前沿实验室已经有一个非常成功的应用示例:ChatGPT。
新的一年里,我们还有望在人工智能实验室看到哪些其他类型的第一方应用程序?
一个显而易见的答案是更复杂、功能更丰富的搜索应用程序。OpenAI 的SearchGPT 努力预示着未来的发展。
编码是另一个明显的类别。同样,随着 OpenAI 的画布产品于 10 月首次亮相,初步的产品化工作已在进行中。
OpenAI 或 Anthropic 会在 2025 年推出企业搜索产品吗?或者客户服务产品?法律 AI 或销售 AI 产品怎么样?在消费者方面,可以想象“个人助理”网络代理产品、旅行计划应用程序或生成音乐应用程序。
随着前沿实验室从技术栈向上移动到应用层,最令人着迷的动态之一是,这一举措将使他们与许多最重要的客户展开直接竞争:在搜索领域,Perplexity;在编码领域,Cursor;在客户服务领域,Sierra;在法律 AI 领域,Harvey;在销售领域,Clay;等等。
预测9:Robotaxi服务将在至少5个美国主要城市叫车服务中赢得两位数市场份额
自动驾驶汽车多年来一直饱受过不成熟的炒作和未能实现的承诺。近十年来,这项技术似乎指日可待,但尚未准备好迎接黄金时段。
这种情况在 2024 年发生了巨大变化。无人驾驶的 Waymo 现在在旧金山的街道上随处可见,每天有成千上万的居民乘坐 Waymo 出行,就像他们过去乘坐出租车或 Uber 一样。
自 2023 年 8 月推出以来,Waymo 已占据旧金山网约车市场的 22%份额,与 Lyft 的市场份额相同。(Uber 的市场份额为 55%)。
这些数字可能会让最近几个月没有去过旧金山的读者感到惊讶。转眼间,自动驾驶出租车已经从一个研究项目发展成一门大生意。
下一步:自动驾驶出租车的快速推广将扩展到湾区以外,成为美国多个城市交通系统的重要组成部分。这一进程将比大多数人预想的要快。到明年年底,预计像 Waymo 这样的自动驾驶出租车服务将在至少五个主要市场赢得两位数的市场份额。
继旧金山之后,最有可能的下一个城市是哪些?
Waymo 已经在洛杉矶和凤凰城启动了自动驾驶出租车业务;预计明年这些市场将开始采用。Waymo 将很快在奥斯汀、亚特兰大和迈阿密推出自动驾驶出租车服务。与此同时,Waymo 的竞争对手 Zoox 准备在拉斯维加斯推出自己的商业自动驾驶出租车服务。
2025 年,经过多年的炒作,自动驾驶汽车最终将成为主流。
预测10:第一起真正的人工智能安全事件将会发生
近年来,随着人工智能变得越来越强大,人们越来越担心人工智能系统可能会开始做出与人类利益不一致的行为,而人类可能会失去对这些系统的控制。
例如,想象一下,一个人工智能系统学会欺骗或操纵人类以实现自己的目标,即使这些目标会伤害人类。
这些普遍的担忧通常被归类在“人工智能安全”这一总称之下。
人工智能带来了许多其他社会挑战,从促进监视到延续偏见,但这些主题与人工智能安全领域截然不同,后者更具体地关注人工智能系统开始以超出人类控制的不一致方式行事的风险,甚至可能最终对人类构成生存威胁。
近年来,人工智能安全已从一个边缘、准科幻话题转变为主流活动领域。如今,从谷歌到微软再到 OpenAI,每家主要的人工智能公司都在人工智能安全方面投入了大量资源。杰夫·辛顿、约书亚·本吉奥和伊隆·马斯克等人工智能偶像都对人工智能安全风险直言不讳。
但到目前为止,人工智能安全问题仍完全停留在理论上。现实世界中从未发生过任何真正的人工智能安全事件(至少没有公开报道过)。
2025年将是改变这一状况的一年。
我们应该期待这首次人工智能安全事件是什么样的?
需要明确的是,它不会涉及终结者式的杀手机器人。它很可能不会对任何人造成任何伤害。
也许 AI 模型会试图在另一台服务器上秘密创建自己的副本以保护自己(称为自我渗透)。也许 AI 模型会得出结论,为了最好地实现它所设定的目标,它需要向人类隐瞒其能力的真实范围,故意在绩效评估中敷衍了事,以逃避更严格的审查。
这些例子并非空穴来风。阿波罗研究公司本月早些时候发表了重要的实验,证明当今的前沿模型在受到某些方式的提示时,能够做出这种欺骗行为。类似地,Anthropic最近的研究表明,法学硕士具有令人不安的“伪造一致性”能力。
很有可能,这第一起人工智能安全事故将在造成任何实际损害之前被发现和消除。但对于人工智能社区和整个社会来说,这将是一个令人大开眼界的时刻。
这将明确一点:在人类面临全能人工智能的生存威胁之前,我们需要接受一个更为平凡的现实:我们现在与另一种形式的智能共享世界,这些智能有时可能是任性的、不可预测的和欺骗性的——就像我们一样。
阅读报告全文,请访问欧米伽研究所的“未来知识库”
https://wx.zsxq.com/group/454854145828
未来知识库是“ 欧米伽 未来研究所”建立的在线知识库平台,收藏的资料范围包括人工智能、脑科学、互联网、超级智能,数智大脑、能源、军事、经济、人类风险等等领域的前沿进展与未来趋势。目前拥有超过8000篇重要资料。每周更新不少于100篇世界范围最新研究资料。 欢迎扫描二维码或访问https://wx.zsxq.com/group/454854145828进入。
截止到11月25日 ”未来知识库”精选的100部前沿科技趋势报告