Sora横空出世,2024或成AI+Web3变革元年?

时间:2024-07-15  分类:电子


原文标题:《Sora横空出世,2024或成AI+Web3变革元年?》

原文作者:Zeke,YBBCapital

前言


2月16日,OpenAI公布了最新的文本控制视频生成扩散模型「Sora」,通过多段涵盖的广泛视觉数据类型的高质量生成视频,展现了生成式AI的又一个里程碑时刻。不同于Pika这类AI视频生成工具还处于用多张图像生成几秒视频的状态,Sora通过在视频和图像的压缩潜在空间中训练,将其分解为时空位置补丁,实现了可扩展的视频生成。除此之外该模型还体现出了模拟物理世界和数字世界的能力,最终呈现的60秒Demo,说是「物理世界的通用模拟器」也并不为过。


而在构建方式上,Sora延续了此前GPT模型「源数据-Transformer-Diffusion-涌现」的技术路径,这意味着其发展成熟同样需要算力作为引擎,且由于视频训练所需数据量远大于文本训练的数据量,对于算力的需求还将进一步拉大。但我们在早期的文章《潜力赛道前瞻:去中心化算力市场》中已经探讨过算力在AI时代的重要性,并且随着近期AI热度的不断攀升,市面上已经有大量算力项目开始涌现,而被动受益的其它Depin项目(存储、算力等)也已经迎来一波暴涨。那么除了Depin之外,Web3与AI的交织还能碰撞出怎样的火花?这条赛道里还蕴含着怎样的机会?本文的主要目的是对过往文章的一次更新与补全,并思考AI时代下的Web3存在哪些可能。


AI发展史的三大方向


人工智能(ArtificialIntelligence)是一门旨在模拟、扩展和增强人类智能的新兴科学技术。人工智能自二十世纪五六十年代诞生以来,在经历了半个多世纪的发展后,现已成为推动社会生活和各行各业变革的重要技术。在这一过程中,符号主义、连接主义和行为主义三大研究方向的相互交织发展,成为了如今AI飞速发展的基石。


符号主义(Symbolism)


亦称逻辑主义或规则主义,认为通过处理符号来模拟人类智能是可行的。这种方法通过符号来表示和操作问题领域内的对象、概念及其相互关系,并利用逻辑推理来解决问题,尤其在专家系统和知识表示方面已取得显著成就。符号主义的核心观点是智能行为可以通过对符号的操作和逻辑推理来实现,其中符号代表对现实世界的高度抽象;


连接主义(Connectionism)


或称为神经网络方法,旨在通过模仿人脑的结构和功能来实现智能。该方法通过构建由众多简单处理单元(类似神经元)组成的网络,并通过调整这些单元间的连接强度(类似突触)来实现学习。连接主义特别强调从数据中学习和泛化的能力,特别适用于模式识别、分类及连续输入输出映射问题。深度学习,作为连接主义的发展,已在图像识别、语音识别和自然语言处理等领域取得突破;


行为主义(Behaviorism)


行为主义则与仿生机器人学和自主智能系统的研究紧密相关,强调智能体能够通过与环境的交互学习。与前两者不同,行为主义不专注于模拟内部表征或思维过程,而是通过感知和行动的循环实现适应性行为。行为主义认为,智能通过与环境的动态交互、学习而展现,这种方法应用于需要在复杂和不可预测环境中行动的移动机器人和自适应控制系统中时,显得尤为有效。


尽管这三个研究方向存在本质区别,但在实际的AI研究和应用中,它们也可以相互作用和融合,共同推动AI领域的发展。


AIGC原理概述


现阶段正在经历爆炸式发展的生成式AI(ArtificialIntelligenceGeneratedContent,简称AIGC),便是对于连接主义的一种演化和应用,AIGC能够模仿人类创造力生成新颖的内容。这些模型使用大型数据集和深度学习算法进行训练,从而学习数据中存在的底层结构、关系和模式。根据用户的输入提示,生成新颖独特的输出结果,包括图像、视频、代码、音乐、设计、翻译、问题回答和文本。而目前的AIGC基本由三个要素构成:深度学习(DeepLearning,简称DL)、大数据、大规模算力。


深度学习


深度学习是机器学习(ML)的一个子领域,深度学习算法是仿照人脑建模的神经网络。例如,人脑包含数百万个相互关联的神经元,它们协同工作以学习和处理信息。同样,深度学习神经网络(或人工神经网络)是由在计算机内部协同工作的多层人工神经元组成的。人工神经元是称为节点的软件模块,它使用数学计算来处理数据。人工神经网络是使用这些节点来解决复杂问题的深度学习算法。


从层次上划分神经网络可分为输入层、隐藏层、输出层,而不同层之间连接的便是参数。


●  输入层(InputLayer):输入层是神经网络的第一层,负责接收外部输入的数据。输入层的每个神经元对应于输入数据的一个特征。例如,在处理图像数据时,每个神经元可能对应于图像的一个像素值;


●  隐藏层(HiddenLayer):输入层处理数据并将其传递到神经网络中更远的层。这些隐藏层在不同层级处理信息,在接收新信息时调整其行为。深度学习网络有数百个隐藏层,可用于从多个不同角度分析问题。例如,你得到了一张必须分类的未知动物的图像,则可以将其与你已经认识的动物进行比较。比如通过耳朵形状、腿的数量、瞳孔的大小来判断这是什么动物。深度神经网络中的隐藏层以相同的方式工作。如果深度学习算法试图对动物图像进行分类,则其每个隐藏层都会处理动物的不同特征并尝试对其进行准确的分类;


●  输出层(OutputLayer):输出层是神经网络的最后一层,负责生成网络的输出。输出层的每个神经元代表一个可能的输出类别或值。例如,在分类问题中,每个输出层神经元可能对应于一个类别,而在回归问题中,输出层可能只有一个神经元,其值表示预测结果;


●  参数:在神经网络中,不同层之间的连接由权重(Weights)和偏置(Biases)参数表示,这些参数在训练过程中被优化以使网络能够准确地识别数据中的模式和进行预测。参数的增加可以提高神经网络的模型容量,即模型能够学习和表示数据中复杂模式的能力。但相对应的是参数的增加会提升对算力的需求。


大数据


-->> 1/2 文章未完,请继续阅读

以上就是Sora横空出世,2024或成AI+Web3变革元年?的全部内容,望能这篇Sora横空出世,2024或成AI+Web3变革元年?可以帮助您解决问题,能够解决大家的实际问题是非常好学习网一直努力的方向和目标。