时间:2024-05-05 23:39:43来源:界面新闻
界面新闻:感觉你在融资信息的发布上挺谨慎的,但其他家都宣传得很热闹。为什么阶跃不怎么去提融资的事情?
姜大昕:我觉得没有必要。我们最终的目标是把模型训出来,那我们知道自己的融资节奏和方式就好。
界面新闻:但如果有高融资或者高估值,应该也更容易在市场上建立头部印象?
姜大昕:现在的好处是,人工智能领域确实有一批投资人是非常懂的,他们知道这是一个长期且比较耗钱的项目,也愿意相信我们的技术实力。
通往AGI之路,十万亿不是尽头界面新闻:你所信仰的AGI可以怎样概括?
姜大昕:AGI目前确实没有一个准确的定义,我也不想给它一个(定义),只能非常概括地说,达到人的智能就叫AGI 。而且我觉得这里面最重要的一个字就是“G”(general),通用。
界面新闻:你给公司规划了“单模态-多模态-多模理解和生成的统一-世界模型-AGI”的路径,每个阶段要走多长时间是可估算的吗?
姜大昕:不好预测。就像我看到ChatGPT之前,都还会说自然语言处理这件事,常识和推理需要十年二十年来解决,结果一夜之间就解决了。所以有的科学突破可能在积累上早就发生了,但有点像大家说的“涌现”,只看到“砰”地一下上去了,是一种跳变。但这个朝着目标迈进的过程,只要没有达到那个点,它就是0。
界面新闻:阶跃对于明年有什么究竟的目标?
姜大昕:朝着GPT-4.5/5去努力,一个是规模扩大到10万亿参数,第二个是从能力上,我希望明年对多模理解和生成的统一有突破,能够同时理解和生成。
整条线我们都看得很清楚了,包括我们处在什么阶段、什么是落实性的,接下来肯定是在现有的落实性基础上再往前走。
界面新闻:达到万亿参数模型之后,推进Scaling Law最难的事情是什么?
姜大昕:最难的不是一件,是四件事情,就是我们说的算力、系统、数据、算法。
界面新闻:感觉你是一个非常坚信Scaling Law的人,这个定律有到头的时候吗?
姜大昕:这是个很好的问题。在肉眼可见的未来,我觉得至少还有两个数量级。我们到年中应该才算真正攀上去万亿,那么10万亿是个落实性事件,一定会攀。
界面新闻:10万亿对应的是GPT-5?
姜大昕:不知道是GPT-4.5还是GPT-5,就看OpenAI下一个模型出来的是个什么。其实 GPT-4是2022年10月份就训完了,去年4月份发布是因为它后来打磨又用了6个月时间,跟我们现在状态差不多。
虽然OpenAI年初发布了Sora,但最新一代大模型到底叫GPT-4.5还是GPT-5,多大参数规模,都不知道。我们基于它的能力、路线,包括它用的卡做一个推测的话,至少是个10万亿级别。
界面新闻:那第二个数量级就要到百万亿。
姜大昕:这里有一个参考,就是人脑的神经元连接是200万亿,但我觉得不是一个特别有效的参考,因为人和机器现在没有任何可直接对比的关系,可能只是给人一个目标。
界面新闻:除了这个路径之外,还存在别的可能弯道超车的技术路线吗?
姜大昕: 除了刚才的两条路线,还有第三条路径是解读人脑到底是怎么工作的,即脑神经科学。