上云无忧 > 文档中心 > 腾讯云计算加速套件 TACO Kit 常见问题QA
计算加速套件TACO Kit
腾讯云计算加速套件 TACO Kit 常见问题QA

文档简介:
Q:计算加速套件TACO Kit 包含哪些产品? A:包含 TACO Train AI 训练加速引擎和 TACO Infer AI 推理加速引擎。
*此产品及展示信息均由腾讯云官方提供。免费试用 咨询热线:400-826-7010,为您提供专业的售前咨询,让您快速了解云产品,助您轻松上云! 微信咨询
  免费试用、价格特惠

计算加速套件TACO Kit 包含哪些产品?

包含 TACO Train AI 训练加速引擎和 TACO Infer AI 推理加速引擎。

计算加速套件TACO Kit 适用于哪些场景?

适用于训练加速和推理加速,目前支持以下场景及模型:
计算机视觉。例如,ResNet、MobileNet、Inception、ViT 等。
推荐系统。例如,Wide&Deep、DeepFM 等。
NLP 服务。例如,BERT、Transformer、ASR 等。

TACO Infer AI 推理加速引擎支持哪些硬件和 AI 框架?

硬件支持支持 Intel 和 AMD 系列的 CPU 优化,后续会支持更多优化目标硬件,请您关注产品动态。
AI 框架已对 TensorFlow 1.14和1.15两个主要版本进行了全面的测试。如使用其他版本遇到任何问题,欢迎 联系我们 获取支持。

TACO Train AI 训练加速引擎包含哪些组件?

TACO Train 目前提供了三个训练加速组件:
Tencent Tensorflow 1.15:基于 Tensorflow 1.15深度优化的训练框架(简称 TTF)。
LightCC:基于 Horovod 深度优化的分布式训练框架。
HARP:自研用户态网络协议栈。

如何获取 TACO Infer AI 推理加速引擎下载链接?

TACO Infer AI 推理加速引擎目前处于内测阶段,您可以通过 联系我们 填写问卷后获取下载链接。

使用 Keras + Horovod 训练过程中,发现内存使用量随着 epoch 增加而增加,最终导致内存溢出应该怎么处理?

建议使用 TCMalloc 进行内存优化,可以使内存在多个 epoch 之间基本保持不变。

哪些 GPU 机型支持 HARP 网络协议?

所有的 GPU 实例类型均支持 HARP 网络协议。
相似文档
  • 利用批量计算(BatchCompute 简称 Batch),您可以在云服务器上运行批量计算工作负载。Batch 是开发人员、科学家和工程师用来访问大量计算资源的常见方法,并且 Batch 可以免去配置和管理所需基础设施的繁重工作。Batch 与传统的批量计算软件类似。此服务可以有效地预配置资源以响应提交的作业,达到消除容量限制、降低计算成本和快速交付的目的。
  • 基因测序: 生物信息公司或实验室利用测序仪获取基因组序列的原始文件,在完成基因组序列的初步分析后将信息上传到云上存储系统,例如对象存储 COS,然后通过腾讯云批量计算 Batch 对信息进行更进一步分析。
  • 零预投入成本: 用户可以在需要时免费调用海量的云服务器资源,为 Batch 服务所用,仅需为您使用到的云服务器付费。同时,用户无需担心建设和维护基础设施,节约成本及时间。
  • 作业: 作业(Job)是用户提交批处理工作的最小单位,它由单个或多个有前后依赖关系的任务组成。可以通过非常易用的 DAG 语法,来给多个批处理任务设置依赖关系,共同组成一个作业,然后依次执行各个任务,直到所有任务完成,即作业完成。
  • 云服务器配额限制: Batch 在执行作业过程中可能会用到按量计费和竞价实例模式的云服务器(CVM),云服务器会对用户在不同可用区下可同一时间持有的云服务器数量做限制,详情请参见 购买按量计费云服务器实例限制。
官方微信
联系客服
400-826-7010
7x24小时客服热线
分享
  • QQ好友
  • QQ空间
  • 微信
  • 微博
返回顶部