# AI与Web3的融合与发展:现状、挑战与前景## 一、引言:AI+Web3的发展概况近年来,人工智能(AI)和Web3技术的快速进步引发了全球范围内的广泛关注。AI在人脸识别、自然语言处理、机器学习等领域取得了重大突破,为各行各业带来了巨大变革和创新。2023年,AI行业市场规模达到2000亿美元,涌现出OpenAI、Character.AI、Midjourney等优秀企业。同时,Web3作为新兴网络模式,正在改变人们对互联网的认知和使用方式。Web3以去中心化区块链技术为基础,通过智能合约、分布式存储和去中心化身份验证等功能,实现数据共享与可控、用户自治和信任机制的建立。Web3的核心理念是将数据从中心化机构解放,赋予用户对数据的控制权和价值分享权。目前Web3行业市值已达25万亿美元,Bitcoin、Ethereum、Solana等项目层出不穷。AI与Web3的结合是东西方开发者和投资者共同关注的领域,如何将两者很好融合是一个值得探索的问题。本文将重点分析AI+Web3的发展现状,探讨这种融合带来的潜在价值和影响。我们将首先介绍AI和Web3的基本概念,然后探讨它们之间的相互关系。接着分析当前AI+Web3项目的现状,并深入讨论面临的局限性和挑战。希望能为投资者和从业者提供有价值的参考和洞察。## 二、AI与Web3交互的方式AI和Web3的发展犹如天平两端,AI提升生产力,Web3变革生产关系。那么两者能碰撞出什么火花?我们先分析各自面临的困境和提升空间,再探讨如何互相帮助解决这些困境。### 2.1 AI行业面临的困境要探究AI行业的困境,首先要了解AI的三个核心要素:算力、算法和数据。1. 算力:指进行大规模计算和处理的能力。AI任务通常需要处理海量数据和复杂计算,如训练深度神经网络模型。高强度计算能力可加速模型训练和推理,提高AI系统性能和效率。近年来,GPU和专用AI芯片的发展极大推动了AI行业进步。GPU提供商如Nvidia占据大量市场份额,获得高额利润。2. 算法:AI系统的核心组成部分,包括传统机器学习算法和深度学习算法。算法的选择和设计对AI系统性能至关重要。不断改进和创新的算法可提高系统准确性、鲁棒性和泛化能力。3. 数据:AI系统的核心任务是通过学习和训练来提取数据中的模式和规律。丰富的数据集能提供更全面、多样化的信息,帮助模型更好地泛化到未见过的数据,更好地理解和解决现实世界问题。了解AI核心要素后,我们来看AI在这三方面遇到的挑战:算力方面,AI任务需要大量计算资源进行模型训练和推理。获取和管理大规模算力成本高昂且复杂,尤其对初创企业和个人开发者而言更是困难。算法方面,深度学习虽然取得巨大成功,但仍存在挑战。训练深度神经网络需要海量数据和计算资源,某些任务的模型解释性不足。算法的鲁棒性和泛化能力也是重要问题,模型在未见过的数据上表现可能不稳定。数据方面,获取高质量、多样化的数据仍面临挑战。某些领域如医疗的敏感数据难以获得。数据质量、准确性和标注也存在问题,不完整或有偏见的数据可能导致模型错误行为或偏差。同时,数据隐私和安全保护也是重要考量。此外,AI模型的可解释性和透明度也是公众关注的问题。某些应用如金融、医疗等需要可解释和可追溯的决策过程,而现有深度学习模型往往缺乏透明度。除此之外,很多AI创业项目的商业模式不清晰,这也让许多AI创业者感到迷茫。### 2.2 Web3行业面临的困境Web3行业也存在诸多方面需要解决的困境,无论是数据分析、用户体验,还是智能合约代码漏洞与安全问题,都有很大提升空间。AI作为提高生产力的工具,在这些方面有很多潜在发挥空间。首先是数据分析与预测能力方面的提升:AI技术在数据分析和预测方面的应用为Web3行业带来巨大影响。通过AI算法的智能分析和挖掘,Web3平台可从海量数据中提取有价值信息,进行更准确预测和决策。这对去中心化金融(DeFi)领域的风险评估、市场预测和资产管理等方面具有重要意义。其次,AI可以改进用户体验和个性化服务:AI技术的应用使Web3平台能提供更好的用户体验和个性化服务。通过分析用户数据和建模,可为用户提供个性化推荐、定制化服务以及智能化交互体验,提高用户参与度和满意度,促进Web3生态系统发展。在安全性和隐私保护方面,AI的应用对Web3行业也具有深远影响。AI技术可用于检测和防御网络攻击、识别异常行为,提供更强大安全保障。同时,AI还可应用于数据隐私保护,通过数据加密和隐私计算等技术,保护用户个人信息。在智能合约审计方面,AI技术可用于自动化合约审计和漏洞检测,提高合约安全性和可靠性。可以看出,对于Web3行业面临的困境和潜在提升空间,AI在很多方面都能参与和给予助力。## 三、AI+Web3项目现状分析结合AI和Web3的项目主要从两个方面入手:利用区块链技术提升AI项目表现,以及利用AI技术服务于Web3项目的提升。围绕这两个方面,涌现出一大批项目在这条路上探索,包括Io.net、Gensyn、Ritual等。接下来我们将从AI助力Web3和Web3助力AI的不同子赛道分析现状和发展情况。### 3.1 Web3助力AI#### 3.1.1 去中心化算力OpenAI在2022年底推出ChatGPT后引爆AI热潮,推出5天后用户数量达到100万,2个月内月活用户数达到1亿,到2023年11月,周活用户数达到1亿。ChatGPT的问世使AI领域从小众赛道迅速发展成为备受关注的行业。根据Trendforce报告,ChatGPT需要30000个NVIDIA A100 GPU才能运行,未来GPT-5将需要更多数量级的计算。这也让各AI公司开启军备竞赛,只有掌握足够算力,才能在AI之战中保持优势,因此出现了GPU短缺现象。AI崛起前,GPU最大提供商英伟达的客户集中在AWS、Azure和GCP三大云服务商。随着AI兴起,出现大量新买家,包括Meta、甲骨文等大科技公司以及其他数据平台和AI初创公司,都加入囤积GPU来训练AI模型的战争。正如去年Semi Analysis提到的"GPU富人和GPU穷人",少数几家公司拥有2万多A100/H100 GPU,团队成员可为项目使用100到1000个GPU。这些公司要么是云提供商或自建LLM,包括OpenAI、Google、Meta、Anthropic、Inflection、Tesla、Oracle、Mistral等。然而大部分公司都属于GPU穷人,只能在数量少得多的GPU上挣扎。这种情况并不局限于初创公司,一些知名AI公司如Hugging Face、Databricks、Together甚至Snowflake的A100/H100数量都小于20K。这些公司拥有世界一流技术人才,却受限于GPU供应数量,在AI竞赛中处于劣势。这种短缺并不局限于"GPU穷人",甚至2023年底,AI龙头OpenAI因无法获得足够GPU,不得不关闭付费注册数周,同时采购更多GPU供应。可见,AI高速发展带来的GPU需求侧和供给侧出现严重不匹配,供不应求问题迫在眉睫。为解决这一问题,一些Web3项目开始尝试结合Web3技术特点,提供去中心化算力服务,包括Akash、Render、Gensyn等。这类项目共同点是通过代币激励广大用户提供闲置GPU算力,成为算力供给侧,为AI客户提供算力支持。供给侧画像主要分为三类:云服务商、加密货币矿工、企业。云服务商包括大型云服务商(如AWS、Azure、GCP)以及GPU云服务商(如Coreweave, Lambda, Crusoe等),用户可转售闲置云服务商算力获得收入。加密矿工随着以太坊从PoW转向PoS,闲置GPU算力也成为重要潜在供给侧。此外,像特斯拉、Meta这类因战略布局而购买大量GPU的大型企业,也可将闲置GPU算力作为供给侧。目前赛道玩家大致分两类,一类将去中心化算力用于AI推理,另一类用作AI训练。前者如Render(虽聚焦渲染,但也可用作AI算力提供)、Akash、Aethir等;后者如io.net(推理和训练都支持)、Gensyn,两者最大差异在于算力要求不同。先来聊聊AI推理的项目,这类项目通过代币激励吸引用户参与算力提供,再将算力网络服务提供给需求侧,实现闲置算力供需撮合。这类项目核心是通过代币激励机制吸引供给者,然后吸引用户使用,实现项目冷启动和核心运转机制,从而进一步扩张发展。在这种循环下,供给侧有更多更有价值的代币回报,需求侧有更便宜性价比更高的服务,项目代币价值和供需双方参与者增长保持一致,随代币价格上升,吸引更多参与者和投机者,形成价值捕获。另一类是将去中心化算力用于AI训练,如Gensyn、io.net(AI训练和推理都支持)。这类项目运转逻辑与AI推理类项目无太大本质差异,依旧通过代币激励吸引供给侧参与提供算力,供需求侧使用。io.net作为去中心化算力网络,目前GPU数量超过50万个,表现突出,已集成Render和Filecoin算力,不断发展生态项目。Gensyn通过智能合约方式促进机器学习任务分配和奖励,实现AI训练。Gensyn机器学习训练工作每小时成本约0.4美元,远低于AWS和GCP超过2美元的成本。Gensyn体系包括四个参与主体:提交者、执行者、验证者和举报者。- 提交者:需求用户是任务消费者,提供将被计算的任务,为AI训练任务付费- 执行者:执行模型训练任务,生成完成任务证明供验证者检查- 验证者:将非确定性训练过程与确定性线性计算联系,将执行者证明与预期阈值比较- 举报者:检查验证者工作,发现问题时提出质疑获得收益Gensyn希望成为面向全球深度学习模型的超大规模、经济高效计算协议。但纵观这个赛道,为什么大部分项目选择去中心化算力做AI推理而非训练?这里帮助不了解AI训练和推理的朋友介绍两者区别:- AI训练:如把人工智能比作学生,训练就类似给AI提供大量知识、示例(即数据),AI从中学习。由于学习本质需理解记忆大量信息,这个过程需要大量计算能力和时间。- AI
AI与Web3融合:现状、挑战与发展前景分析
AI与Web3的融合与发展:现状、挑战与前景
一、引言:AI+Web3的发展概况
近年来,人工智能(AI)和Web3技术的快速进步引发了全球范围内的广泛关注。AI在人脸识别、自然语言处理、机器学习等领域取得了重大突破,为各行各业带来了巨大变革和创新。2023年,AI行业市场规模达到2000亿美元,涌现出OpenAI、Character.AI、Midjourney等优秀企业。
同时,Web3作为新兴网络模式,正在改变人们对互联网的认知和使用方式。Web3以去中心化区块链技术为基础,通过智能合约、分布式存储和去中心化身份验证等功能,实现数据共享与可控、用户自治和信任机制的建立。Web3的核心理念是将数据从中心化机构解放,赋予用户对数据的控制权和价值分享权。目前Web3行业市值已达25万亿美元,Bitcoin、Ethereum、Solana等项目层出不穷。
AI与Web3的结合是东西方开发者和投资者共同关注的领域,如何将两者很好融合是一个值得探索的问题。本文将重点分析AI+Web3的发展现状,探讨这种融合带来的潜在价值和影响。我们将首先介绍AI和Web3的基本概念,然后探讨它们之间的相互关系。接着分析当前AI+Web3项目的现状,并深入讨论面临的局限性和挑战。希望能为投资者和从业者提供有价值的参考和洞察。
二、AI与Web3交互的方式
AI和Web3的发展犹如天平两端,AI提升生产力,Web3变革生产关系。那么两者能碰撞出什么火花?我们先分析各自面临的困境和提升空间,再探讨如何互相帮助解决这些困境。
2.1 AI行业面临的困境
要探究AI行业的困境,首先要了解AI的三个核心要素:算力、算法和数据。
算力:指进行大规模计算和处理的能力。AI任务通常需要处理海量数据和复杂计算,如训练深度神经网络模型。高强度计算能力可加速模型训练和推理,提高AI系统性能和效率。近年来,GPU和专用AI芯片的发展极大推动了AI行业进步。GPU提供商如Nvidia占据大量市场份额,获得高额利润。
算法:AI系统的核心组成部分,包括传统机器学习算法和深度学习算法。算法的选择和设计对AI系统性能至关重要。不断改进和创新的算法可提高系统准确性、鲁棒性和泛化能力。
数据:AI系统的核心任务是通过学习和训练来提取数据中的模式和规律。丰富的数据集能提供更全面、多样化的信息,帮助模型更好地泛化到未见过的数据,更好地理解和解决现实世界问题。
了解AI核心要素后,我们来看AI在这三方面遇到的挑战:
算力方面,AI任务需要大量计算资源进行模型训练和推理。获取和管理大规模算力成本高昂且复杂,尤其对初创企业和个人开发者而言更是困难。
算法方面,深度学习虽然取得巨大成功,但仍存在挑战。训练深度神经网络需要海量数据和计算资源,某些任务的模型解释性不足。算法的鲁棒性和泛化能力也是重要问题,模型在未见过的数据上表现可能不稳定。
数据方面,获取高质量、多样化的数据仍面临挑战。某些领域如医疗的敏感数据难以获得。数据质量、准确性和标注也存在问题,不完整或有偏见的数据可能导致模型错误行为或偏差。同时,数据隐私和安全保护也是重要考量。
此外,AI模型的可解释性和透明度也是公众关注的问题。某些应用如金融、医疗等需要可解释和可追溯的决策过程,而现有深度学习模型往往缺乏透明度。
除此之外,很多AI创业项目的商业模式不清晰,这也让许多AI创业者感到迷茫。
2.2 Web3行业面临的困境
Web3行业也存在诸多方面需要解决的困境,无论是数据分析、用户体验,还是智能合约代码漏洞与安全问题,都有很大提升空间。AI作为提高生产力的工具,在这些方面有很多潜在发挥空间。
首先是数据分析与预测能力方面的提升:AI技术在数据分析和预测方面的应用为Web3行业带来巨大影响。通过AI算法的智能分析和挖掘,Web3平台可从海量数据中提取有价值信息,进行更准确预测和决策。这对去中心化金融(DeFi)领域的风险评估、市场预测和资产管理等方面具有重要意义。
其次,AI可以改进用户体验和个性化服务:AI技术的应用使Web3平台能提供更好的用户体验和个性化服务。通过分析用户数据和建模,可为用户提供个性化推荐、定制化服务以及智能化交互体验,提高用户参与度和满意度,促进Web3生态系统发展。
在安全性和隐私保护方面,AI的应用对Web3行业也具有深远影响。AI技术可用于检测和防御网络攻击、识别异常行为,提供更强大安全保障。同时,AI还可应用于数据隐私保护,通过数据加密和隐私计算等技术,保护用户个人信息。在智能合约审计方面,AI技术可用于自动化合约审计和漏洞检测,提高合约安全性和可靠性。
可以看出,对于Web3行业面临的困境和潜在提升空间,AI在很多方面都能参与和给予助力。
三、AI+Web3项目现状分析
结合AI和Web3的项目主要从两个方面入手:利用区块链技术提升AI项目表现,以及利用AI技术服务于Web3项目的提升。
围绕这两个方面,涌现出一大批项目在这条路上探索,包括Io.net、Gensyn、Ritual等。接下来我们将从AI助力Web3和Web3助力AI的不同子赛道分析现状和发展情况。
3.1 Web3助力AI
3.1.1 去中心化算力
OpenAI在2022年底推出ChatGPT后引爆AI热潮,推出5天后用户数量达到100万,2个月内月活用户数达到1亿,到2023年11月,周活用户数达到1亿。ChatGPT的问世使AI领域从小众赛道迅速发展成为备受关注的行业。
根据Trendforce报告,ChatGPT需要30000个NVIDIA A100 GPU才能运行,未来GPT-5将需要更多数量级的计算。这也让各AI公司开启军备竞赛,只有掌握足够算力,才能在AI之战中保持优势,因此出现了GPU短缺现象。
AI崛起前,GPU最大提供商英伟达的客户集中在AWS、Azure和GCP三大云服务商。随着AI兴起,出现大量新买家,包括Meta、甲骨文等大科技公司以及其他数据平台和AI初创公司,都加入囤积GPU来训练AI模型的战争。
正如去年Semi Analysis提到的"GPU富人和GPU穷人",少数几家公司拥有2万多A100/H100 GPU,团队成员可为项目使用100到1000个GPU。这些公司要么是云提供商或自建LLM,包括OpenAI、Google、Meta、Anthropic、Inflection、Tesla、Oracle、Mistral等。
然而大部分公司都属于GPU穷人,只能在数量少得多的GPU上挣扎。这种情况并不局限于初创公司,一些知名AI公司如Hugging Face、Databricks、Together甚至Snowflake的A100/H100数量都小于20K。这些公司拥有世界一流技术人才,却受限于GPU供应数量,在AI竞赛中处于劣势。
这种短缺并不局限于"GPU穷人",甚至2023年底,AI龙头OpenAI因无法获得足够GPU,不得不关闭付费注册数周,同时采购更多GPU供应。
可见,AI高速发展带来的GPU需求侧和供给侧出现严重不匹配,供不应求问题迫在眉睫。
为解决这一问题,一些Web3项目开始尝试结合Web3技术特点,提供去中心化算力服务,包括Akash、Render、Gensyn等。这类项目共同点是通过代币激励广大用户提供闲置GPU算力,成为算力供给侧,为AI客户提供算力支持。
供给侧画像主要分为三类:云服务商、加密货币矿工、企业。
云服务商包括大型云服务商(如AWS、Azure、GCP)以及GPU云服务商(如Coreweave, Lambda, Crusoe等),用户可转售闲置云服务商算力获得收入。加密矿工随着以太坊从PoW转向PoS,闲置GPU算力也成为重要潜在供给侧。此外,像特斯拉、Meta这类因战略布局而购买大量GPU的大型企业,也可将闲置GPU算力作为供给侧。
目前赛道玩家大致分两类,一类将去中心化算力用于AI推理,另一类用作AI训练。前者如Render(虽聚焦渲染,但也可用作AI算力提供)、Akash、Aethir等;后者如io.net(推理和训练都支持)、Gensyn,两者最大差异在于算力要求不同。
先来聊聊AI推理的项目,这类项目通过代币激励吸引用户参与算力提供,再将算力网络服务提供给需求侧,实现闲置算力供需撮合。这类项目核心是通过代币激励机制吸引供给者,然后吸引用户使用,实现项目冷启动和核心运转机制,从而进一步扩张发展。在这种循环下,供给侧有更多更有价值的代币回报,需求侧有更便宜性价比更高的服务,项目代币价值和供需双方参与者增长保持一致,随代币价格上升,吸引更多参与者和投机者,形成价值捕获。
另一类是将去中心化算力用于AI训练,如Gensyn、io.net(AI训练和推理都支持)。这类项目运转逻辑与AI推理类项目无太大本质差异,依旧通过代币激励吸引供给侧参与提供算力,供需求侧使用。
io.net作为去中心化算力网络,目前GPU数量超过50万个,表现突出,已集成Render和Filecoin算力,不断发展生态项目。
Gensyn通过智能合约方式促进机器学习任务分配和奖励,实现AI训练。Gensyn机器学习训练工作每小时成本约0.4美元,远低于AWS和GCP超过2美元的成本。
Gensyn体系包括四个参与主体:提交者、执行者、验证者和举报者。
Gensyn希望成为面向全球深度学习模型的超大规模、经济高效计算协议。
但纵观这个赛道,为什么大部分项目选择去中心化算力做AI推理而非训练?
这里帮助不了解AI训练和推理的朋友介绍两者区别:
AI训练:如把人工智能比作学生,训练就类似给AI提供大量知识、示例(即数据),AI从中学习。由于学习本质需理解记忆大量信息,这个过程需要大量计算能力和时间。
AI