查看“︁AI算力”︁的源代码
←
AI算力
跳转到导航
跳转到搜索
因为以下原因,您没有权限编辑该页面:
您请求的操作仅限属于该用户组的用户执行:
用户
您可以查看和复制此页面的源代码。
{{分类:人工智能术语}} {{分类:算力相关术语}} {{信息框|标题=AI算力|内容= * 英文对应:AI Computing Power * 核心定义:支撑人工智能模型训练与推理的计算能力 * 核心关联:以[[词元]]为核心计量基准,词元处理量决定算力消耗 * 单位: FLOPS(浮点运算次数)、词元/秒等 }} 一、定义 '''AI算力'''是指支撑[[大语言模型]]、自然语言处理、计算机视觉等人工智能技术,完成模型训练、推理、数据处理的计算能力,是人工智能发展的核心基础设施。其消耗与处理效率,通常以[[词元]]数量为核心计量基准(尤其是大模型推理场景)。 二、核心构成 - '''硬件层面''':GPU、CPU、TPU等专用计算芯片,是AI算力的核心载体; - '''软件层面''':算力调度平台、深度学习框架(如TensorFlow、PyTorch),优化算力利用效率; - '''计量层面''':以FLOPS(浮点运算次数)衡量算力规模,以[[词元]]/秒衡量大模型推理的算力效率。 三、与词元的关联 AI算力与[[词元]]的关联主要体现在大模型的训练与推理场景,核心关系如下: 1. 推理算力消耗:大模型处理文本时,每处理1个[[词元]],会消耗一定的算力,词元数量越多,算力消耗越大; 2. 算力效率衡量:常用“词元/秒”作为大模型推理算力效率的指标,即单位时间内可处理的[[词元]]数量; 3. 计费关联:AI算力的计费,常与[[词元]]数量绑定(如按每千词元消耗的算力定价); 4. 训练算力关联:大模型训练过程中,训练数据的[[词元]]总量,决定了训练所需的算力规模与时间。 四、核心影响因素 - '''词元数量''':处理的[[词元]]越多,算力消耗越大; - '''模型参数量''':模型参数量越大,每处理1个[[词元]]所需的算力越多; - '''硬件性能''':GPU/TPU性能越强,单位时间内可处理的[[词元]]数量越多,算力效率越高; - '''优化技术''':通过模型量化、算力调度等技术,可提升单位算力的[[词元]]处理效率。 五、相关词条 * [[词元(Token)]] * [[大语言模型(LLM)]] * [[上下文窗口]] * [[数据要素]]
该页面嵌入的页面:
Template:信息框
(
查看源代码
)
Category:人工智能术语
(
查看源代码
)
Category:算力相关术语
(
查看源代码
)
返回
AI算力
。
导航菜单
个人工具
中文
登录
命名空间
页面
讨论
不转换
不转换
简体
繁體
大陆简体
香港繁體
澳門繁體
大马简体
新加坡简体
臺灣正體
查看
阅读
查看源代码
查看历史
更多
搜索
导航
首页
最近更改
随机页面
MediaWiki帮助
特殊页面
工具
链入页面
相关更改
页面信息