摘要:AI带来的营收增长还没有出现,可能永远都不会出现。
知名人工智能专家Gary Marcus在最新博客中指出,尽管AI炒作仍在持续,大科技公司对这项技术的热情也没有减少,但从业二十多年的经验提醒他,人们对AI改变世界的潜力可能过于乐观了。
【资料图】
许多企业家都在预言,跟人类一样聪明的通用人工智能(AGI)即将到来,但Marcus相信实际上AGI距离我们还很遥远。全世界都在想象AI将如何如何改变世界,但这些想象最后很有可能都会落空——AI也许没有那么强大。现在经历炒作的股票,终究会在AI带来的营收不及预期时跌回去。
以下为全文译文:
除了所谓室温超导体 LK-99 的快速崛起和快速衰落之外,我从未见过有什么东西比生成式人工智能更受追捧。许多公司的估值高达数十亿美元,新闻报道不绝于耳;从硅谷到华盛顿,再到日内瓦,所有人都在谈论它。
但是,首先,收入还没有出现,而且可能永远不会出现。估值预计将达到万亿美元的市场规模,但据传目前从生成式人工智能获得的实际收入只有数亿美元。这些收入确实有可能增长 1000 倍,但这只是猜测。我们不应该简单地假设。
迄今为止,大部分收入似乎来自两个方面,一是编写半自动代码(程序员喜欢使用生成工具作为助手),二是编写文稿。我认为,程序员仍将乐于使用人工智能生成辅助工具;其自动完成的特性对他们的工作非常有利,而且他们受过训练,能够发现并修复并不常见的错误。本科生将继续使用生成式人工智能,但他们的口袋并不宽裕(他们很可能会转向开源的竞争对手)。
其他潜在的付费用户可能会很快失去信心。今天上午,颇具影响力的风险投资人本尼迪克特·埃文斯(Benedict Evans)在X上发表了一系列文章,提出了这一问题:
我那些试图使用 ChatGPT 回答搜索查询以帮助学术研究的朋友们也面临着类似的幻灭。一位使用 ChatGPT 进行法律研究的律师受到了法官的严厉批评,他基本上不得不以书面形式承诺,再也不会在无人监督的情况下使用 ChatGPT。几周前,一则新闻报道称,GPT 的使用可能正在减少。
如果埃文斯的经历是煤矿中的金丝雀,那么整个生成式人工智能领域,至少以目前的估值来看,可能会迅速终结。程序员会继续使用它,那些需要撰写大量文案来推广产品以提高搜索引擎排名的营销人员也会继续使用它。但无论是编码还是高速、质量平平的文案写作,都远远不足以维持当前的估值梦想。
即使是 OpenAI,也很难实现其 290 亿美元的估值;如果年复一年只能实现数千万或数亿美元的收入,那么估值低至数十亿美元的竞争初创公司很可能最终倒闭。微软今年的股价上涨了近一半,或许主要是由于人工智能的前景,但它的股价可能会下滑;英伟达的股价飙升得更厉害,也可能会下跌。
罗杰·麦克纳米(Roger McNamee)是早期软件风险投资的先驱,他和我前几天还在讨论这个问题。也许在我们俩看来,唯一在经济上有说服力的使用案例就是搜索(例如,使用由 ChatGPT 支持的必应,而不是谷歌搜索)--但这方面的技术问题是巨大的;我们没有理由认为幻觉问题会很快得到解决。如果不能解决,泡沫很容易破灭。
但现在让我担心的不仅仅是整个AIGC经济——更多地是基于承诺而非实际商业用途——可能会出现大规模、令人痛心的修正,而是我们正在将整个全球和国家政策建立在人工智能生成将改变世界的前提之上,而事后看来,这种前提可能是不现实的。
在全球范围内,各国在围绕AI展开对抗,局势异常紧张,很多时候都围绕着谁能“赢得人工智能战争”的梦想。
但是,如果赢家不是任何人,至少不是在短期内,那又会怎样呢?
在国家层面上,可能会保护消费者的法规(如关于隐私、减少偏见、要求数据透明、打击错误信息等方面的法规),正在被确保美国生成式人工智能尽快发展的反向压力所减缓。我们可能无法获得所需的消费者保护,因为我们正试图培养一种可能无法按预期发展的东西。
我并不是说任何人的特定政策都是错误的,但如果“人工智能将比火和电更强大”这一前提被证明是错误的,或者至少在未来十年内没有得到证实,那么我们就很有可能因为一个海市蜃楼而陷入许多不必要的紧张关系,同时AI泛滥也会引发一场社交媒体层面的惨败,消费者在新闻中被利用,错误信息占据主导地位,因为政府不敢严厉打击。我们很难预测这一切的可能性,但这是一个令人警醒的想法,我希望华盛顿和北京都能对此有所考虑。
在我看来,几乎所有人都犯了一个根本性的错误,那就是认为生成式人工智能等同于 AGI(通用人工智能,与人类一样聪明机智,甚至有过之而无不及)。
工业界的每个人都希望你相信 AGI 即将到来。这刺激了他们对必然性的叙述,也推动了他们的股票价格和初创公司的估值。Anthropic 公司首席执行官达里奥·阿莫代(Dario Amodei)最近预测,我们将在 2-3 年内实现 AGI。谷歌 DeepMind 首席执行官德米斯·哈萨比斯(Demis Hassabis)也对近期的 AGI 做出了预测。
我对此深表怀疑。在生成式人工智能的核心问题上,我们面临的不是一个,而是许多尚未解决的严重问题--从它们容易混淆(产生幻觉)虚假信息,到它们无法与 Wolfram Alpha 等外部工具可靠对接,再到它们每个月的不稳定性(这使得它们无法在大型系统中进行工程应用)。
而现实情况是,除了纯粹的技术乐观主义之外,我们没有任何具体理由认为这些问题即将得到解决。通过扩大系统规模来 "扩展 "系统在某些方面有所帮助,但在其他方面则不然;我们仍然无法保证任何特定系统都是诚实、无害或有益的,而不是谄媚、不诚实、有毒或有偏见的。人工智能研究人员多年来一直在研究这些问题。幻想这些具有挑战性的问题会突然全部迎刃而解是愚蠢的。
22 年来,我一直在抱怨幻觉错误;人们一直在承诺解决方案即将到来,但却从未实现。我们现在拥有的技术是建立在自动完成的基础上的,而不是建立在事实基础上的。
如果幻觉是无法解决的,那么生成式人工智能可能也无法每年赚取一万亿美元。如果生成式人工智能每年赚不了一万亿美元,那么它可能也不会产生人们所期待的影响。如果它不会产生这样的影响,也许我们就不应该以它会产生这样的影响为前提来构建我们的世界。
本文来自人工智能科学家、企业家Gary Marcus博客
标签: