NAI:OpenAI与AIGC:改变人类生产范式 通往“万物的摩尔定律”_ArbGPT

今年美国科罗拉多州博览会的艺术比赛上,游戏设计师JasonM.Allen的作品《太空歌剧院》在数字艺术板块得到一等奖。奖项本身含金量不大,却一石激起千层浪,因为这幅画不是由人动手绘制,而是来自生成式AI(GenerativeAI)产品Midjourney。

当时艺术正统和机器亵渎引发了争议,其实早在摄影技术兴起时就有过类似的争议,并不妨碍摄影技术革新并,成为了现代艺术的有机组成部分。

因此本文不对此问题做太多探讨,而是旨在对生成式AI发展与突破的历史进行复盘,并梳理生成式AI会在自然语言、代码、图片、视频、3D模型等领域带来什么样的下游应用。

回顾历史,人类艺术的发展速度是对数式的,而技术的进步速度是指数式的。生成式AI学习了人类艺术对数进化史上的海量画作,实现了创作质量上的指数式进步,并在生产效率上实现了”弯道超车“。模型生成的作品便是今天热议的AIGC(AIGeneratedContent)。

而本文聚焦的公司OpenAI,在这场生成式AI的突破中起到了关键性的作用,通过堆叠海量算力的大模型使AIGC进化。

在2022年上半年,OpenAI旗下三个大模型GPT-3、GitHubCopilot和DALL·E2的注册人数均突破了100万人,其中?GPT-3花了2年,GitHubCopilot花了半年,而DALL·E2只用了2个半月达到了这一里程碑,足见这一领域热度的提升。

研究型企业引领的大模型发展,也给了下游应用领域很大的想象空间,语言生成领域已经在文案生成、新闻撰写、代码生成等领域诞生了多家百万级用户、千万级美金收入的公司。

而最出圈的图片生成领域两大产品MidJourney和StableDiffusion都已经有相当大的用户群体,微软也已经布局在设计软件中为视觉设计师提供AIGC内容,作为设计灵感和素材的来源。同时3D和视频生成领域的大模型也在飞速突破的过程中,未来很可能会在游戏原画、影视特效、文物修复等领域发挥作用。

从神经网络的角度看,当前的大模型GPT-3有1750亿参数,人类大脑有约100万亿神经元,约100个神经元会组成一个皮质柱,类似于一个小的黑盒神经网络模块,数量级上的差异决定了算力进步可以发展的空间还很大。与此同时,今天训练1750亿参数的GPT-3的成本大概在450万美元左右,根据成本每年降低约60%的水平,供大模型提升计算复杂度的空间还很多。

OpenAICEO、YC前主席SamAltman的图景中,AI大模型发展的最终目标是AGI,当这一目标实现的时候,人类经济社会将实现”万物的摩尔定律“,即万物的智能成本无限降低,人类的生产力与创造力得到解放。?

归纳并演绎生成式AI是什么

AI模型大致可以分为两类:决策式AI与生成式AI。

根据机器学习教科书,决策式模型(DiscriminantModel)学习数据中的条件概率分布;生成式模型(GenerativeModel)学习数据中的联合概率分布,两者的区别在于擅长解决问题的方式不同:

决策式AI擅长的是基于历史预估当下,有两大类主要的模型应用,一类是辅助决策,常用在推荐系统和风控系统中;第二类是决策智能体,常用于自动驾驶和机器人领域。

生成式AI擅长的是归纳后演绎创造,基于历史进行缝合式创作、模仿式创新——成为创作者飞船的大副。所谓AIGC,便是使用生成式AI主导/辅助创作的艺术作品。

不过在10年代的机器学习教科书中,早已就有了这两类AI。为何AIGC在20年代初有了显著突破呢?答案是大模型的突破。

TheBitterLesson大模型助AIGC进化

时间倒回到19年3月,强化学习之父RichardSutton发布了名为TheBitterLesson的博客,其中提到:”短期内要使AI能力有所进步,研究者应寻求在模型中利用人类先验知识;但之于AI的发展,唯一的关键点是对算力资源的充分利用。“

Seekinganimprovementthatmakesadifferenceintheshorterterm,researchersseektoleveragetheirhumanknowledgeofthedomain,buttheonlythingthatmattersinthelongrunistheleveragingofcomputation.

该文章在当时被不少AI研究者视为对自己工作的否定,极力辩护。但如果拉长时间线回看,会发现这位泰斗所言不虚:

机器学习模型可以从参数量级上分为两类:统计学习模型,如SVM、决策树等数学理论完备,算力运用克制的模型;和深度学习模型,以多层神经网络的深度堆叠为结构,来达到高维度暴力逼近似然解的效果,理论上不优雅但能高效的运用算力进行并行计算。

神经网络模型在上世纪90年代出现,但在2010年前,统计学习模型仍是主流;后来得益于GPU算力的高速进步,基于神经网络的深度学习模型逐渐成为主流。

深度学习充分利用了GPU擅长并行计算的能力,基于庞大的数据集、复杂的参数结构一次次实现出惊人的效果,刷新预期。大模型便是深度学习模型参数量达到一定量级,只有大型科技公司才能部署的深度学习模型。

2019年,OpenAI从非营利组织变为营利性公司,接受微软10亿美金注资。这一合作奠定了他们有更多算力资源,并能依仗微软的云基础建设随时将大模型发布为商用api。

与此同时,还有第三件事值得关注,大模型AI的研究方向出现了转变,从智能决策式AI转变为内容生成式AI:原本主要大模型集中于游戏的智能决策体,如DeepMind开发的打败围棋冠军的AlphaGo、OpenAI开发的打败Dota职业选手的OpenAIFive。

Transformer模型的发布让OpenAI嗅到了更适合他们的机会——预训练语言模型。在那之后,他们开始在AIGC的方向上开枝散叶:沿着2018年时低调发布的GPT模型轨迹发布了一系列模型族,一次次刷新文本生成大模型的效果,印证Sutton提出的宗旨:充分运用海量算力让模型自由的进行探索和学习。

OpenAI的大模型发展之路

2019年2月:GPT-2初版发布,1.2亿参数量

2019年3月:OpenAILP成立

2019年7月:微软注资10亿美金

2019年11月:GPT-2最终版发布,15亿参数量,宣布暂时不开放使用为避免假信息伪造

2020年6月:GPT-3发布,1750亿参数量,后续开放OpenAIAPI作为商用

2021年1月:DALL·E与CLIP发布

2021年10月:OpenAICodex发布,为GPT-3为coding场景的特化模型、GithubCopilot的上游模型

2022年4月:DALL·E2发布

1、GPT-3,AI文本生成巅峰之作

深度学习兴起于计算机视觉领域的应用,而大模型的发展开始于NLP领域。在数据、算力充分发展的过程中,Transformer模型以attention机制高度并行化的结构充分利用算力,成为NLP领域预训练模型的标杆。

著名的独角兽HuggingFace也是从对该模型的复现和开源起家。除了attention机制的高效之外,它还有两个重要特点:迁移学习(transferlearning)和自监督学习(self-supervisedlearning)。

顾名思义,迁移学习指在一个极庞大的数据集上充分学习历史上的各类文本,把经验迁移到其他文本上。

算法工程师会将第一步训练完成的模型存储下来,称为预训练模型。需要执行具体任务时,基于预训练版本,进行定制化微调(fine-tune)、或展示少许范例(few-shot/zero-shot)。

而自监督学习,得从机器学习中的监督学习讲起。前面提到若需要学习一匹马是否在奔跑,需要有一个完整标注好的大数据集。

自监督学习不需要,当AI拿到一个语料库,可以通过遮住一句话中的某个单词、遮住某句话的下一句话的方式,来模拟一个标注数据集,帮模型理解每个词的上下文语境,找到长文本之间的关联。该方案大幅提高了对数据集的使用效率。

谷歌发布的BERT是Transformer时代的先驱,OpenAI发布的GPT-2以相似的结构、更胜一筹的算力后来居上。直到2020年6月,OpenAI发布了GPT-3,成为该模型族,甚至整个文本生成领域的标杆。

GPT-3的成功在于量变产生质变:参数比GPT-2多了两个数量级,它用的最大数据集在处理前容量达到45TB。

如此巨大的模型量级,效果也是史无前例的。给GPT-3输入新闻标题”联合卫理公会同意这一历史性分裂“和副标题”反对同性恋婚姻的人将创建自己的教派“,生成了一则以假乱真的新闻,评估人员判断出其为AI生成的准确率仅为12%。以下是这则新闻的节选:

据《华盛顿邮报》报道,经过两天的激烈辩论,联合卫理公会同意了一次历史性的分裂:要么创立新教派,要么”保持神学和社会意义上的保守“。大部分参加五月教会年度会议的代表投票赞成进一步禁止LGBTQ神职人员的任命,并制定新的规则”规范“主持同性婚礼的神职人员。但是反对这些措施的人有一个新计划:于2020年组成一个新教派”基督教卫理公会“。

要达到上述效果,成本不容小觑:从公开数据看,训练一个BERT模型租用云算力要花约1.2万美元,训练GPT-2每小时要花费256美元,但OpenAI并未公布总计时间成本。考虑到GPT-3需要的算力是BERT的2000多倍,预估发布当时的训练成本肯定是千万美元级别,以至于研究者在论文第九页说:我们发现了一个bug,但没钱再去重新训练模型,就先这么算了吧。

2、背后DALL·E2,从文本到图片

GPT-3杀青后,OpenAI把大模型的思路迁移到了图片多模态生成领域,从文本到图片主要有两步:多模态匹配:将AI对文本的理解迁移至对图片的理解;图片生成:生成出最符合要求的高质量图片。

对于多模态学习模块,OpenAI在2021年推出了CLIP模型,该模型以人类的方式浏览图像并总结为文本内容,也可以转置为浏览文本并总结为图像内容。

CLIP(ContrastiveLanguage-ImagePre-Training)最初的核心思想比较简单:在一个图像-文本对数据集上训练一个比对模型,对来自同一样本对的图像和文本产生高相似性得分,而对不匹配的文本和图像产生低相似性分。

对于内容生成模块,前面探讨了文本领域:10年代末NLP领域生成模型的发展,是GPT-3暴力出奇迹的温床。而计算机视觉CV领域10年代最重要的生成模型是2014年发布的生成对抗网络,红极一时的DeepFake便是基于这个模型。GAN的全称是GenerativeAdversarialNetworks——生成对抗网络,显然”对抗“是其核心精神。

注:受博弈论启发,GAN在训练一个子模型A的同时,训练另一个子模型B来判断它的同僚A生成的是真实图像还是伪造图像,两者在一个极小极大的博弈中不断变强。

当A生成足以”“过B的图像时,模型认为它比较好地拟合出了真实图像的数据分布,进而用于生成逼真的图像。当然,GAN方法也存在一个问题,博弈均衡点的不稳定性加上深度学习的黑盒特性使其生成。

不过OpenAI大模型生成图片使用的已不是GAN了,而是扩散模型。2021年,生成扩散模型在学界开始受到关注,成为图片生成领域新贵。

它在发表之初其实并没有收到太多的关注,主要有两点原因:

其一灵感来自于热力学领域,理解成本稍高;

其二计算成本更高,对于大多高校学术实验室的显卡配置而言,训练时间比GAN更长更难接受。

该模型借鉴了热力学中扩散过程的条件概率传递方式,通过主动增加图片中的噪音破坏训练数据,然后模型反复训练找出如何逆转这种噪音过程恢复原始图像,训练完成后。扩散模型就可以应用去噪方法从随机输入中合成新颖的”干净“数据。该方法的生成效果和图片分辨率上都有显著提升。

不过,算力正是大模型研发公司的强项,很快扩散模型就在大公司的调试下成为生成模型新标杆,当前最先进的两个文本生成图像模型——OpenAI的DALL·E2和Google的Imagen,都基于扩散模型。DALL·E2生成的图像分辨率达到了1024×1024像素。例如下图”生成一幅莫奈风格的日出时坐在田野里的狐狸的图像“:

除了图像生成质量高,DALL·E2最引以为傲的是inpainting功能:基于文本引导进行图像编辑,在考虑阴影、反射和纹理的同时添加和删除元素,其随机性很适合为画师基于现有画作提供创作的灵感。比如下图中加入一只符合该油画风格的柯基:

DALL·E2发布才五个月,尚没有OpenAI的商业化api开放,但有StableDiffusion、MidJourney等下游公司进行了复现乃至商业化,将在后文应用部分介绍。

3、OpenAI的使命——开拓通往AGI之路

AIGC大模型取得突破,OpenAI只开放了api和模型思路供大家借鉴和使用,没去做下游使用场景的商业产品,是为什么呢?因为OpenAI的目标从来不是商业产品,而是通用人工智能AGI。

OpenAI的创始人SamAltman是YC前总裁,投出过Airbnb、Stripe、Reddit等明星独角兽。

他在21年发布过一篇著名的博客《万物的摩尔定律》,其中提到OpenAI,乃至整个AI行业的使命是通过实现AGI来降低所有人经济生活中的智能成本。这里所谓AGI,指的是能完成平均水准人类各类任务的智能体。

因此,OpenAI始终保持着学术型企业的姿态处于行业上游,成为学界与业界的桥梁。当学界涌现出最新的state-of-art模型,他们能抓住机会通过海量算力和数据集的堆叠扩大模型的规模,达到模型意义上的规模经济。

在此之后克制地开放商业化api,一方面是为了打平能源成本,更主要是通过数据飞轮效应带来的模型进化收益:积累更富裕的数据优化迭代下一代大模型,在通往AGI的路上走得更坚实。

定位相似的另一家公司是Deepmind——2010年成立,2014年被谷歌收购。同样背靠科技巨头,也同样从强化学习智能决策领域起家,麾下的AlphaGo名声在外,ElonMusk和SamAltman刚开始组局创办OpenAI,首要的研究领域就是步AlphaGo后尘的游戏决策AI。

不过19年后,两者的研究重心出现了分叉。DeepMind转向使用AI解决基础科学如生物、数学等问题:AlphaFold在预测蛋白质结构上取得了突破性的进展,另一个AI模型AlphaTensor自己探索出了一个50年悬而未决的数学问题:找到两个矩阵相乘的最快方法,两个研究都登上了Nature杂志的封面。而OpenAI则转向了日常应用的内容生成AIGC领域。

AIGC大模型是通往AGI路上极为重要、也有些出乎意料的一站。其重要性体现在AI对人类传达信息的载体有了更好的学习,在此基础上各个媒介之间的互通成为可能。

例如从自然语言生成编程语言,可以产生新的人机交互方式;从自然语言生成图片和视频,可以革新内容行业的生产范式。意外性则是,最先可能被替代的不是蓝领,而是创作者,DeepMind甚至在协助科学家一起探索科研的边界。

OpenAI的模式也给了下游创业者更多空间。可以类比当年预训练语言模型发展初期,HuggingFace把握机会成为大模型下游的模型开源平台,补足了模型规模膨胀下机器学习民主化的市场空间。

而对AIGC模型,未来会有一类基于大模型的创业公司,把预训练完成的AIGC模型针对每个子领域进行调优。不只需要模型参数优化,更要基于行业落地场景、产品交互方式、后续服务等,帮助某个行业真正用上大模型。

正如AI的bitterlesson一样矛盾,投资者需要短期投资回报率、研究者需要短期投稿成功率,尽管OpenAI走在通往AGI正确的路上,这条路道阻且长,短期很难看到极大的突破。而SamAltman展望的大模型应用层公司很有可能有更高的高投资回报,让我们来介绍下主要的分类与创业者。

百家争鸣的AIGC大模型应用层

对应OpenAI大模型发布的顺序,模型应用层相对最成熟的是文本生成领域,其次是图片生成领域,其他领域由于还未出现统治级的大模型相对落后。

文本领域天然应用场景丰富,且GPT-3开放api很久,细分赛道很多。大致可以根据生成内容不同分为两类:机器编程语言生成、人类自然语言生成。前者主要有代码和软件行为的生成等,后者主要有新闻撰写、文案创作、聊天机器人等。

而图片领域当前还专注于图片自身内容的生成,预期随着未来3D、视频相关内容生成能力的增强,会有更多结合不同业务场景如游戏、影视这样细分领域的创业公司。

以下是海外各子领域创业公司的梳理,接下来将针对几个领域的重要公司进行介绍。

1、编程语言

文本领域最成熟的应用暂时不在人类自然语言,而是在代码等机器语言的生成领域。因为机器语言相对更结构化,易学习;比如鲜有长文本的上下文关系、基于语境的不同含义等情况。

代码生成:GithubCopilot

代表公司是微软出品的GithubCopilot,编程中的副驾驶。该产品基于OpenAI专门用GPT-3为编程场景定制的AI模型Codex。使用者文字输入代码逻辑,它能快速理解,根据海量开源代码生成造好的轮子供开发者使用。提高一家科技公司10%的coding效率能带来很大收益,微软内部已进行推广使用。

相比低代码工具,Copilot的目标群体是代码工作者。未来的低代码可能是两者结合:低代码UI界面实现代码框架搭建,代码子模块通过Copilot自动生成。

正如Copilot的slogan:Don’tflysolo,没有Copilot的帮助coder的工作会变得繁冗,没有coder的指引Copilot生成的内容可能会出现纰漏。也有用户报告了一些侵犯代码版权、或代码泄露的案例,当前技术进步快于版权法规产生了一定的空白。

软件行为生成:Adept.ai

Adept.ai是一家明星创业公司。创始团队中有两人是Transformer模型论文作者,CEO是谷歌大脑中大模型的技术负责人,已经获得Greylock等公司6500万美元的A轮融资。

他们的主要产品是大模型ACT-1,让算法理解人类语言并使机器自动执行任务。目前产品形态是个chrome插件,用户输入一句话,能实现单击、输入、滚动屏幕行文。在展示demo中,一位客服让浏览器中自动记录下与某位顾客的电话,正在考虑买100个产品。这个任务需要点击10次以上,但通过ACT-1一句话就能完成。

动态 | OpenFin获富国银行领投的1700万美元C轮融资:据The Block消息,金融服务公司OpenFin在一份新闻稿中宣布,已获得富国银行(Wells Fargo)牵头的1700万美元C轮融资。其他投资者包括Barclays以及贝恩资本(Bain Capital Ventures)、摩根大通 和Pivot Investment Partners等现有投资者。最新的投资使其风险投资总额达到4000万美元。[2019/5/17]

软件行为生成颠覆的是当下的人机交互形式,使用文字或语音的自然语言形式来代替当下人与机器的图形交互模式。大模型成熟后,人们使用搜索引擎、生产力工具的方式都将变得截然不同。

2、自然语言

自然语言下还有多个应用型文本生成领域值得关注:新闻撰写、文案创作、对话机器人等。

新闻撰写

最著名的是AutomatedInights。他们的结构化数据新闻撰写工具叫做wordsmith,通过输入相应数据和优先级排序,能产出一篇基于数据的新闻报道。该工具已在为美联社每季度自动化产出300余篇财报相关报道,在雅虎体育新闻中也已经崭露头角。据分析师评价,由AI完成的新闻初稿已接近人类记者在30分钟内完成的报道水准。

NarrativeScience是另一家新闻撰写生成公司,其创始人甚至曾预测,到2030年,90%以上的新闻将由机器人完成。

文案创作

该领域竞争较为激烈,有copy.ai、Jasper、copysmith等公司。他们基于GPT-3的能力加入了文案领域的人工模板与结构,为商家和个人创作者提供了快速为自己的商品、内容进行宣传的能力。以copysmith为例:

对话机器人

前面提到的Adept.ai由Transformer模型的一作和三作联合创立;而二作也创业了,他创办的Character.ai是当前对话机器人中使用效果最逼真的。

该对话机器人可以自定义或使用模板来定义角色的家庭、职业、年龄等,在此基础上保持一贯的设定和符合设定的对话风格。经常能体现出一定的共情对话能力带给人惊喜,并且支持多语言互通。

比如他们有已训练好的马斯克等名人和一些动漫角色,与他们对话会有很棒的代入感。

而商业化的对话机器人,在客服、销售等行业有巨大的市场空间,但如今还为成熟。

主要出现的问题有二:

其一,客服、销售行业遇到的客户往往情绪状态不稳定,AI难以对情绪进行适应并调整对话内容;

其二,AI的多轮对话能力较弱,无法保证持续有效的跟进问题。

创作性文本

AI对于长文本创作有一定困难,难以保持1000字以上的文本创作后仍能进行上下文的联系。

但基于短文本创作仍有一些有趣的应用,例如基于GPT-3的AIDungeon,可以引导AI创造一个虚拟游戏世界观。该领域进一步的成长需要期待未来3-5年,有成熟的能产出千字内容的AI出现。

3、多模态图片

DALL·E2是极具突破性的AIGC大模型,但距离丰富生产力和创造力的成熟产品还有差距。因此有研究者顺着DALL·E和CLIP的思路开发了开源版本的扩散模型,就像当年的HuggingFace那样,并将其根据创作者社区的反馈转变为更成熟易用的商业产品。接下来就介绍几个主要出圈的模型:

DiscoDiffusion

最早出圈的AI绘图工具是开源模型DiscoDiffusion。发布时间比DALL·E2稍晚,同样也是CLIP+DiffusionModel的结构,生成效果让许多插画师担心起了失业。

尽管很多插画师和AI工具爱好者的推荐都认可了该工具的易用性和生成效果的出众,但其生成时间略长有待优化,可以认为是大家对图片生成大模型的初体验。

MidJourney

该模型发布后不久,DiscoDiffusion?的开发者Somnai加入了MidJourney,和团队一起打造了一款产品化的DiscoDiffusion。

Midjourney的创始人DavidHolz并不是以CV研究为主,更关注人机交互。产品公测和主要交流平台都基于Discord,使用DiscordBot进行交互,打造了相当良好的社区讨论环境。

使用中印象深刻的有几个重要功能:MidJourney画廊中可以看到每时每刻创作者们用MJ创作出的作品,用户可以对作品进行打分,每周排名靠前的作品将得到额外的fastGPU时间奖励。

同时,MJ官方还为用户贴心的提供了引导语prompt集合和AI擅长的风格指南,指导用户如何最高效的生成出他们想要的图片。

基于良好的产品和社区体验,MidJourney的付费用户量也是目前最大的。

目前收费模式采用了订阅制,个人用户有两个档位,每月最多200张图片的10美元/月,以及”不限量“图片的30美元/月;对企业客户,单人一年收费仅有600美元,且生成的作品可以商用。

StableDiffusion

如果说MidJourney是一个勤勤恳恳的绩优生,那么Stability.ai则是天赋异禀技术力强、诞生之初就备受VC追捧的富二代,公司估值已达到十亿美元。产品?StableDiffusion?首要目标是一个开源共创模型,与当年的HuggingFace神似。

创始人Emad之前是对冲基金经理,用自己充裕的资金联合LMU和RunawayML开发了开源的StableDiffusion,在Twitter上使用扎克伯格在Oculus发布会上的照片作为背景,号召SD会成为”人类图像知识的基础设施“,通过开源让所有人都能够使用和改进它,并让所有人更好地合作。

StableDiffusion可以认为是一个开源版本的DALL·E2,甚至不少使用者认为是当前生成模型可以使用的最佳选择。官方版本部署在官网DreamStudio上,开放给所有用户注册。

相比其他模型,有很多可以定制化的点。不过官网只有200张免费额度,超过需要付费使用,也可以自行使用开源Colab代码版无限次使用。此外,StableDiffusion在压缩模型容量,希望使该模型成为唯一能在本地而非云端部署使用的AIGC大模型。

05AIGC大模型的未来展望1、应用层:多模态内容生成更加智能,深入各行业应用场景

上述的多模态图片生成产品当前主要局限于创作画作的草图和提供灵感。在未来待版权问题完备后,AIGC内容能进入商用后,必然会更深入地与业界的实际应用进行结合:

以游戏行业为例,AI作画给了非美术专业工作者,如游戏策划快速通过视觉图像表达自己需求和想法的机会;而对美术画师来说,它能够在前期协助更高效、直接地尝试灵感方案草图,在后期节省画面细节补全等人力。

此外,在影视动画行业、视频特效领域,甚至是文物修复专业,AI图片生成的能力都有很大想象空间。当然,这个领域AI的能力也有着不小的进步空间,在下面的未来展望部分进行阐发。

目前AIGC存在PromptEngineering的现象,即输入某一些魔法词后生成效果更好。这是目前大模型对文本理解的一些缺陷,被用户通过反向工程进行优化的结果。未来随着语言模型和多模态匹配的不断优化,不会是常态,但中短期内预期PromptEngineering还是得到好的生成内容的必备流程之一。

2、模态层:3D生成、视频生成AIGC未来3-5年内有明显进步

多模态指不同信息媒介之间的转换。

当前AI作图过程中暴露的问题会成为视频生成模型的阿喀琉斯之踵。

例如:AI作画的空间感和物理规则往往是缺失的,镜面反射、透视这类视觉规则时常有所扭曲;AI对同一实体的刻画缺少连续性。根本原因可能是目前深度学习还难以基于样本实现一些客观规则泛化,需要等待模型结构的优化进行更新。

3D生成领域也有很大价值:3D图纸草图、影视行业模拟运镜、体育赛场现场还原,都是3D内容生成的用武之地。这一技术突破也渐渐成为可能。

2020年,神经辐射场模型发布,可以很好的完成三维重建任务:一个场景下的不同视角图像提供给模型作为输入,然后优化NeRF以恢复该特定场景的几何形状。

基于该技术,谷歌在2022年发布了DreamFusion模型,能根据一段话生成360度三维图片。这一领域当前的实现效果还有优化空间,预期在未来3-5年内会取得突破性进展,推动视频生成的进步。

3、模型层:大模型参数规模将逼近人脑神经元数量

近年的大模型并未对技术框架做颠覆性创新,文本和图像生成领域在大模型出现前,已有较成熟方案。但大模型以量变产生质变。

从神经网络角度看,大脑有约100万亿神经元,GPT-3有1750亿参数,还相差了1000倍的数量级,随着算力进步可以发展的空间还很大。

神经网络本质是对高维数据进行复杂的非线性组合,从而逼近所观测数据分布的最优解,未来一定会有更强的算力、更精妙的参数堆叠结构,来刷新人们对AI生成能力的认知。

4、成本结构决定大模型市场的马太效应

大模型最直接的成本便是能源成本,GPT-3发布时的训练成本在千万美元级别。难以在短期内衡量ROI,大科技公司才能训练大模型。

但随着近年模型压缩、硬件应用的进步,GPT-3量级的模型成本很可能已降至百万美元量级,StableDiffusion作为一个刚发布一个月的产品,已经把原本7GB的预训练模型优化压缩至2GB左右。

在这样的背景下,算力成本在未来必然会逐渐变得更合理,但AIGC领域的另一个成本项让笔者对市场结构的预测还是寡头垄断式的。

大模型有明显的先发优势,来自巨大的隐形成本:智能成本。前期快速积累用户反馈数据能帮助模型持续追新优化,甩开后发的竞争者,达到模型性能的规模效应。

AI的进化来自于数据的积累和充分吸收。深度学习,乃至当前的所有机器学习都是基于历史预估未来,基于已有的数据给到最接近真实的可能。

正如前文讨论的,OpenAI的目标从来不是留恋于某个局部行业的商业产品,而是通过模型规模经济,不断地降低人类社会全局的智能成本,逼近通用人工智能AGI。规模经济正体现在智能成本上。

5、虚拟世界的AGI会先于现实世界诞生

从更宏观的视角上,虚拟世界AI技术的智能成本比现实世界中来得低得多。现实里AI应用最普遍的是无人驾驶、机器人等场景,都对CornerCase要求极高。

对于AI模型而言,一件事超过他们的经验范畴,模型将立马化身人工智障,不具备推演能力。现实世界中cornercase带来的生命威胁、商业资损,造成数据积累过程中极大的试错成本。

虚拟世界则不同,绘图时遇到错位扭曲的图片,大家会在Discord中交流一笑了之;游戏AI产生奇怪行为,还可能被玩家开发出搞怪玩法、造成病传播。

因此虚拟世界,尤其是泛娱乐场景下的AIGC积累数据成本低会成为优势。这个领域的AI如果节省人力、生成内容产生的商业价值能大于算力成本,能很顺畅地形成低成本的正向循环。

伴随着另一个重要的革新——长期Web3.0元宇宙场景下新内容经济生态的形成,虚拟世界内容场景下的AI很可能更早触及到AGI。

郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。

大币网

[0:0ms0-5:852ms