2024 AI 大事预测:大公司将标配这一个职位

人工智能 编辑精选
在人工智能(AI)的发展史上,2023年绝对可以称得上是浓墨重彩的一年。这一年,我们看到了生成式AI以星火燎原之势逐渐点燃市场,展现了这项技术带给未来的无限可能。但随着人们对AI的认知逐渐深入,2024年可能会成为AI从技术走向商业落地的关键转折点。我们综合了福布斯、Techcrunch、麦肯锡等国外重要媒体与机构对2024年AI行业发展的判断,梳理出十个可能在2024年影响AI发展进程的重要事件(以下事件均为推测,仅供参考)。[xyz-ihs snippet=”In-article-ads”]

划重点

1

由于在理念和愿景等方面存在分歧,微软与OpenAI的亲密合作关系可能出现裂痕,双方的竞争将愈发激烈。

2

明年可能是苹果加入AI赛道的良机,随着这项技术日益成熟,苹果将再次展现后来居上的神奇能力。

3

英伟达可能提供云服务并自主运营数据中心,以降低对亚马逊、谷歌以及微软等传统云服务供应商的依赖。

4

科技巨头对人工智能初创企业的战略投资明年将受到监管机构审查,这可能会对2024年的整体AI融资环境产生重大影响。

1.微软和OpenAI分道扬镳?

微软已向OpenAI投入超过100亿美元,OpenAI的大模型也在为微软的多个核心产品提供支持,比如必应搜索、GitHubCopilot和Office365Copilot等,他们之间的关系可谓是密不可分。上个月,OpenAI首席执行官山姆·奥特曼(SamAltman)突然被董事会解雇,微软首席执行官萨蒂亚·纳德拉(SatyaNadella)在帮助其复职的过程中发挥了重要作用。

然而,尽管两者关系紧密,这两家机构对人工智能未来的抱负和愿景却可能差异很大。目前,这个联盟对双方都有利,但这更像是一种暂时的妥协。这两家公司在很多方面都存在差异,未来能否继续保持一致,还是个未知数。预计明年,这两大巨头之间的合作关系将开始出现裂痕。事实上,一些摩擦的迹象已经开始显现。

[xyz-ihs snippet=”GoogleADresponsive”]

随着OpenAI不断扩展其企业业务,它与微软之间的竞争将愈发激烈。微软有充分的理由去寻求OpenAI之外的其他供应商,以获取尖端的人工智能模型。最近,微软就宣布与OpenAI的竞争对手Cohere达成合作协议。此外,考虑到运行OpenAI模型的高昂成本,微软也在内部开展人工智能研究,探索规模较小但同样有效的语言模型,比如Phi-2。

从更大的视角来看,随着人工智能技术的不断强大,关于人工智能的安全、风险、监管和公共问责等问题将逐渐成为人们关注的焦点。这两家公司在这方面的理念和方法上,很可能产生分歧。

微软作为全球第二大公司,市值高达2.7万亿美元。然而,OpenAI及其领导人奥特曼的野心似乎更为远大。目前这两家公司合作无间,但这种情况不会一直持续下去。

2.苹果加入人工智能竞赛

苹果的策略一向是伺机而动,观察市场动态,并从对手的失败中吸取教训。这种沉稳和精准的打法使得苹果在许多领域都能后来居上,将其他竞争对手远远抛在身后。

如今,人工智能领域也正迎来这样的时机:竞争对手正逐渐占据市场,苹果必须保持警惕,以免错失良机;这项技术已经逐渐成熟,苹果有足够的实力和资源来参与其中,推动其进一步发展。

我们预计,苹果将会推出一款更加注重用户隐私和实际应用的人工智能产品。利用其在用户生活中的核心地位,苹果能够将这些智能技术与各种生态系统进行深度整合。此外,这款产品可能还会具备一些创新功能,如多模式交互理解和图像处理等,同时也会更加注重安全性和用户体验。

至于具体的发布形式,苹果可能会选择对现有产品进行升级改进,如增强版的Siri,也可能会选择推出全新的独立服务品牌,如“AppleAI”。无论采取何种策略,我们都相信,苹果将会继续引领人工智能领域的发展潮流。

3.英伟达将努力成为云计算服务提供商

大多数公司不会直接向英伟达付钱买GPU。相反,它们通过亚马逊AWS、微软Azure和谷歌云等云服务提供商使用这些GPU,而这些云服务商则大批量地从英伟达采购芯片。

然而,英伟达的三大客户——亚马逊、微软和谷歌,正在迅速成为它的竞争对手。由于了解到人工智能的巨大价值源自芯片,这几家主要的云服务供应商都在投入巨资研发自家人工智能芯片,这些芯片将会与英伟达的GPU展开直接竞争。

随着云服务供应商寻求将技术栈下沉到芯片领域以获取更大的利益,我们预计英伟达将采取相反的策略——提供云服务和运营自己的数据中心,以降低对传统云服务供应商的依赖。实际上,英伟达已经开始探索这条道路,今年早些时候推出了名为DGXcloud的云服务。我们预计明年英伟达会加大力度推进这一战略。

要做到这一点,英伟达可能需要建立自己的数据中心(目前DGXCloud需要借助其他云服务供应商的物理基础设施),甚至可能还需要英伟达收购像CoreWeave这样的新兴云服务供应商。作为一种垂直整合的方式,英伟达已经与CoreWeave建立了紧密的合作关系。不过,不管怎样,进入2024年后,预计英伟达与大型云服务供应商之间的关系将会变得更加复杂。

4.StabilityAI可能关门倒闭

在人工智能领域,StabilityAI这家曾经备受瞩目的初创公司,2023年成了典型的反面教材。它的发展犹如脱轨的火车,曾经的辉煌现在看起来更像是一堆残骸。

人才的流失是这个公司衰败的明显标志。最近几个月,从首席运营官到首席人事官,再到工程、产品、应用机器学习等各个关键部门的高管,都纷纷离开了公司。

去年那场引人注目的1亿美元融资,让领投的两家公司Coatue和Lightspeed一度以为自己押对了宝。然而,事与愿违,它们最近都退出了StabilityAI的董事会,原因与首席执行官埃玛德·莫斯塔克(EmadMostaque)产生了纠纷。更糟糕的是,今年早些时候,StabilityAI试图以40亿美元的估值筹集更多资金,但最终以失败告终。

展望明年,我们预计这家公司将在压力下逐渐崩溃,最终走向关闭的命运。有报道称,在投资者的压力下,StabilityAI已经开始寻找收购方,但至今几乎无人问津。

不过,StabilityAI最近从英特尔那里获得了5000万美元的融资,这无疑给它打了一剂强心针。对于英特尔来说,这笔投资似乎是一个战略举措,意在与竞争对手英伟达争夺市场份额,并吸引更多的客户来订购其新型AI芯片。

但StabilityAI的烧钱速度是出了名的快。据报道,在英特尔10月份宣布投资时,StabilityAI每月的开支高达800万美元,而收入却少得可怜。按照这个速度,5000万美元的投资只能勉强维持到2024年底。

[xyz-ihs snippet=”googleAD300x100″]

5.最先进的闭源模型将继续领先于最先进的开源模型

在当今的人工智能领域,开源和闭源模型的争议愈演愈烈。OpenAI、谷歌DeepMind等,对自己的最新模型秘而不宣,Meta和新兴公司Mistral,则选择开源他们的模型。

目前,最强大的基础模型,比如OpenAI的GPT-4,仍然是闭源的。但开源倡导者认为,闭源和开源模型之间的性能差距正在缩小,开源模型可能在明年就能超越闭源模型。对此,我们持不同观点,认为在2024年及之后,最佳闭源模型仍将明显优于最佳开源模型。

尽管Mistral最近宣布,他们将在2024年某个时候开源GPT-4级模型,引起开源社区的轰动。但OpenAI早在2023年初就发布了GPT-4。到Mistral推出新模型时,它可能已经落后一年多。届时,OpenAI可能已经发布了GPT-4.5甚至GPT-5。

但是开源模型在2024年的表现是否会超越闭源模型?我们对此持怀疑态度,毕竟,开发新模型需要巨大的投资,而且随着模型功能的增加,投资也会继续增加。许多行业观察人士估计,OpenAI开发GPT-5将花费约20亿美元。

作为上市公司,Meta最终需要对股东负责。他们似乎并不指望通过开源模式发布获得任何直接收入。据报道,Llama2的构建成本约为2000万美元。考虑到战略效益,这种投资可能是合理的,即使没有任何相关的收入增长。但Meta真的会投入近20亿美元,在没有任何具体投资回报的情况下将其开源,以建立比现有任何模型都更好的人工智能模型吗?

像Mistral这样的新公司也面临类似的挑战。开源基础模型没有明确的收入模式,StabilityAI就是一个惨痛的教训。例如,托管开源模型的费用相当高昂,正如最近在Mistral的新模型Mixtral中看到的那样。因此,即使Mistral能够获得数十亿美元资金来构建超越OpenAI的新模型,他们真的会选择放弃并免费提供这个模型吗?

我们怀疑,随着像Mistral这样的公司投入越来越多的资金来构建越来越强大的人工智能模型,他们最终可能会放弃开源的立场,并保持最先进的模型专有,以便收取费用。

6.大公司将设立新职位“首席人工智能官”

在2023年,人工智能(AI)已逐渐成为《财富》500强企业的核心焦点。各大行业的董事会和管理团队都在努力探索这一强大新技术如何为他们的业务带来深远影响。

展望明年,我们预计大型企业将采取的一项重要策略是任命“首席人工智能官”,以领导和推动组织内的人工智能计划。这与十年前云计算的崛起颇为相似,当时众多组织纷纷聘请“首席云计算官”来指导云计算的战略实施。

不仅如此,政府方面也展现出类似的趋势。在拜登总统最近关于人工智能的行政命令中,他要求每个联邦政府机构任命一名首席人工智能官。这意味着在未来的几个月里,美国政府将新增400多名首席人工智能官。

企业任命首席人工智能官将成为其对外展示对AI重视的标志,证明他们正严肃对待这一技术。然而,从长远角度来看,这些新设职位的实际价值仍有待观察。

7.科技巨头对人工智能初创企业的战略投资将受到监管机构挑战

在今年,我们见证了资本从大型科技公司向人工智能初创公司流动的趋势。

1月份,微软向OpenAI注资100亿美元,6月份又领投了新一轮13亿美元的融资。到了今年秋天,亚马逊宣布将向Anthropic投资40亿美元。不甘落后的Alphabet也宣布将向Anthropic投资至多20亿美元。与此同时,英伟达成为了今年全球最活跃的人工智能投资者,投资了数十家使用其GPU的人工智能初创公司,包括Cohere、Inflection、hugsFace、Mistral、CoreWeave、inception、AI21Labs和Imbue等。

这些科技巨头投资的动机不难理解,他们希望这些高增长的人工智能初创公司能为带来比较好的“增长前景”。但是这种投资也可能涉及会计规则中的一个重要灰色地带,并对未来人工智能的竞争格局产生巨大的影响。

假设一家云服务提供商向一家人工智能初创公司投资了1亿美元,前提是这家初创公司必须保证将这笔资金用于购买云服务供应商的服务。从概念上讲,这对云服务供应商来说并不是真正的公平收入。实际上,这种交易可以被视为一种“借贷套利”行为,即卖方是在利用这笔投资,人为地将自己资产负债表上的现金转化为收入。

这种投资方式在今年引起了某些硅谷风投公司的不满,比如BillGurley。尽管并非上述所有交易都属于这种操作,比如有些投资并没有明确要求创业公司将资金用于购买投资方的产品或服务,而只是鼓励双方进行广泛的战略合作。目前微软和OpenAI之间,或者亚马逊和Anthropic之间的合同细节尚未公开,所以我们无法确定这些交易的具体构建方式。

但至少在某些情况下,云服务提供商很可能通过这些投资获得了本不应该得到的收入。到目前为止,这些交易几乎没有受到监管审查。不过,这一状况将在2024年发生改变。预计美国证券交易所(SEC)将在明年更加严格地审视人工智能投资的“返程投资”交易,因此此类交易的数量和规模很可能会大幅下降。

鉴于云服务提供商一直是推动人工智能繁荣的最大资金来源之一,这可能会对2024年的整体人工智能融资环境产生重大影响。

8.机器人工程师即将崛起

随着LLM技术的广泛应用,机器人工程师们将能够借助其强大的功能,实现机器人的快速改进。生成式人工智能将在机器人开发中发挥关键作用,不仅能生成代码,还能创建全新的模拟环境,用于测试和训练机器人。

LLMS技术将为模拟开发带来前所未有的速度与效率。它能够自动构建3D场景、构建环境,并根据输入生成各种资源。这些模拟资产对合成数据生成、机器人技能培训和机器人应用测试等工作流具有重要意义。

除了为机器人工程师提供强大支持外,转换AI模型(即驱动LLM的引擎)还能提升机器人自身的智能化水平。这将使机器人更好地理解复杂环境,更有效地执行各种任务。

为了推动机器人产业的蓬勃发展,我们需要让机器人更具通用性。也就是说,机器人需要更快地掌握新技能,或在各种新环境中展现出色表现。在此背景下,经过模拟训练与测试的生成式人工智能模型,将成为打造更强大、更灵活、更易用的机器人的关键驱动力。

[xyz-ihs snippet=”In-article-ads”]

9.利用互联网数据训练的生成式人工智能模型将被判侵权

生成式人工智能领域正面临一个重大的、未被充分认识的法律风险,那就是该领域最顶尖的模型都是基于大量受版权保护的内容进行训练的。这可能会引发损害赔偿责任,甚至改变整个行业的经济格局。

无论是GPT-4、Claude2、DALL-E3、Midjourney、Pika还是Runway,这些人工智能模型都能创造出令人惊叹的复杂输出,这得益于它们接受了全球大部分数字数据的训练。这些数据,很大程度上是人工智能公司从互联网上免费获取并用于模型开发的。

但问题是,那些真正创造了这些受版权保护的内容的创作者(比如作家、诗人、摄影师和画家等),他们对人工智能从业者使用这些内容有什么看法?他们是否有权从由这些人工智能模型创造的价值中分得一杯羹?

要回答这些问题,关键在于法院对“合理使用”这一法律概念的解释。合理使用是一个经过时间考验的法律原则,但将它应用到生成式人工智能这一新兴领域,却带来了许多前所未有的复杂问题。目前,还没有明确的答案。

斯坦福大学研究员彼得·亨德森(PeterHenderson)表示:“从事机器学习的人可能不太清楚合理使用的微妙之处。与此同时,法院已经裁定,在某些引人注目的现实案例中,某些内容不受合理使用的保护,而这些案例与人工智能正在推出的东西非常相似。因此,我们无法预测这个领域未来的诉讼结果。”

有鉴于此,如果明年至少有一家美国法院裁定GPT-4和Midjourney等生成式人工智能模型侵犯了版权,并要求这些模型的开发公司对知识产权所有者进行赔偿,大家不必感到惊讶。同时,其他法院可能会得出相反的结论,认为这些生成式人工智能模型受到合理使用原则的保护。这个争议问题将会一路上诉至美国最高法院,而后者将最终给出具有法律效力的解决方案。

10.“大语言模型”(或LLM)等术语将变得不那么常见

在当今的人工智能领域,我们经常听到“大语言模型”(LLM)这个术语,它似乎成了“高级AI模型”的代名词。这主要是因为最早的一批生成式AI模型,如GPT-3,主要以文本为基础。

但随着AI模型种类的增多,尤其是多模态AI的崛起,这个术语开始显得不合时宜。如今,许多顶尖的生成式AI模型已经不再局限于文本,而是融合了图像、3D、音频、视频、音乐、肢体动作等多种形式。它们的功能远不止于语言处理。

就拿AI在蛋白质疗法上的应用来说,尽管其底层结构基于GPT-3等模型的扩展,但称其为“大语言模型”真的合适吗?再比如机器人技术中的基础模型:大型生成模型,它将视觉和语言输入与互联网规模的知识相结合,以实现现实世界中的操作。对于这样的模型,我们需要一个更丰富的术语来描述,比如“视觉-语言-行动”(简称VLA)模型。

此外,DeepMind最近发布的FunSearch模型也具备类似的特点。尽管其开发者称之为LLM,但它处理的是数学而非自然语言。展望未来,随着我们的模型越来越多元化,用来描述它们的术语也会越来越丰富。到2024年,我们将看到更多多模态的AI模型,而我们的术语也会随之变得更加丰富和准确。

来源: AI未来指北

[xyz-ihs snippet=”MoreTechNews”] [xyz-ihs snippet=”multiple-ads”]

 680 views