是一款提供了现场可编程门阵列(FPGA)的计算实例,基于阿里云弹性计算框架,用户可以几分钟内轻松创建FPGA实例,创建自定义的专用硬件加速器。由于FPGA硬件的可重配特性,用户可以对已创建的FPGA硬件加速应用,进行快速擦写和重配,达到低时延硬件与弹性伸缩最好的结合。
创建简单
在控制台按需选择加速器类型,轻松将FPGA变成指定硬件加速器
安全监控
实时监控硬件温度及资源占用情况,应对突发问题降低风险
开发环境
通过应用调试各种FPGA开发环境,在最熟悉的环境下完成系统设计
IP市场
阿里云IP市场提供众多领域解决方案,可按需选择、集成、部署
使用FPGA云服务器 加速图片和视频转码 FPGA加速广告CTR预估 最佳实践
加速性能
独特而优越的加速性能
PCI Express (PCIe) 3.0
FPGA器件通过PCI Express (PCIe) 3.0 接口与上层应用程序通信。
专用硬件
应用中消耗大量的CPU计算,系统可以选择性的交给 FPGA专用硬件进行加速计算。
释放资源
释放宝贵的CPU资源,这部分资源支持应用更大的访问量跟吞吐量。
高配特性
用户可选高配FPGA特性,共同使用一个地址空间相互通信速度高达48 Gbps。
性价比
经济实惠的性价比
节约成本
购买 FPGA 实例,无需购买 FPGA 器件和板卡。
按量供需
FPGA实例支持按量付费,无需求时随时释放,轻资产开发,降低项目研发期间的投入成本。
设计模式
可复用旧的设计
云端支持
用户如果已经有现成的 FPGA 工程,可以轻松地利用阿里云提供的开发环境和硬件支持包(BSP)将已有工程导入云端,并在 FPGA 实例中使用。
工具链
阿里云提供了 Altera、Xilinx 主流的开发软件工具链, FPGA 实例中的 FPGA 器件也兼顾两家,方便用户根据原设计的具体情况进行合理选择,无缝迁移。
常见实战场景
深度学习
为深度学习提供加速引擎
深度学习(Deep Learning)是一种多层计算模型,可以对复杂输入进行建模,在图像分类、语音识别、自然语言处理中取得了成果,FPGA 实例由于其细粒度并行的硬件特性,非常适合小批量数据的深度学习预测过程,以低功耗、低延迟、高性能著称,以 AlexNet 模型为例,使用 FPGA计算实例进行图片类别预测,速度比仅用CPU的普通实例快 8~15 倍。
能够解决
图像识别、语音识别、文字识别、机器翻译、人脸识别、车辆识别、物体分类等
解决方案整合
高速通道、NAT 网关、OSS、NAS多种产品可组合
压缩解压缩
云端压缩/解压缩的计算加速
云上用户在进行大数据存储、高速网络传输时,常常因为目前的实例性能在效率跟成本之间进行选择。gzip是一种常用的压缩工具,广泛用于互联网服务中,而传统的CPU实现 gzip 效率低、耗时长、难以支撑较大流量。使用带有 FPGA 的计算实例进行 gzip 压缩相比仅用 CPU 的普通实例有8~10 倍性能提升,充分满足用户的数据压缩需求。
能够解决
后台服务日志压缩、网站静态资源文件压缩、批量计算任务压缩、分布式存储压缩
解决方案整合
高速通道、NAT 网关、OSS、NAS多种产品可组合