人工智能与机器学习

AI / ML的主要趋势

许多行业正在采用 人工智能 (AI) and machine learning (ML),因为概率AI / ML算法现在能够解决其他方法难以解决的棘手问题。包括图像,视频和语音在内的数字数据激增, 由无数的 来源,包括社交媒体,物联网和丰富的信息 视频和安全摄像机。这种增长推动了对从中提取知识的分析的需求 this data. The associated 数据分析通常依赖AI / ML算法,该算法具有快速解决高维问题的独特能力,而高维问题是使用传统计算机算法很难解决的。这些问题包括图像识别,一个或多个视频流中的对象识别,面部识别和自然语言处理(NLP)。事实证明,AI / ML是解决许多实时,模式识别问题的关键技术,适用于许多应用,包括工业自动化,机器人技术和自动驾驶。

许多AI / ML算法的核心是模式识别,通常实现为神经网络。 AI / ML算法开发人员广泛采用深度卷积神经网络(DNN),因为这些深度网络可为重要的图像分类任务提供最先进的准确性。 AI / ML算法通常采用矩阵和向量数学,这需要每秒数万亿的乘法/累加(MAC)运算。执行这些核心AI / ML数学运算需要许多快速乘法器和加法器-通常称为MAC单元。

主流的当前DNN(例如AlexNet或VGG)严重依赖对32位浮点(FP32)数据执行的密集矩阵乘法运算。 GPU非常适合此类操作,因为它们配备了许多浮点计算单元以及高带宽的片上和片外存储器。当前最先进的GPU被广泛用于加速DNN,因为它们为主流DNN提供了高性能,尽管功耗很高。

为什么要使用用于AI / ML的FPGA?

与AI / ML应用程序中的GPU相比,FPGA提供了更高的能源效率(性能/瓦),同时为推理操作提供了可比或更高的性能,因为它们可以提供最少数量的计算元素,在某些情况下甚至可以提供更多的计算元素。因此,FPGA是AI / ML算法的出色实现工具。此外,尽管GPU是可编程的,但FPGA既是可编程的又是可重新配置的,因此在实现新开发的AI / ML算法时,它们具有优于GPU的优势。

在数据可以通过所有矩阵和矢量数学进行处理之前,必须首先进入芯片,再一​​直进入AI / ML计算核心。该数据必须经过高速I / O端口;高性能的片上I / O基础架构;内存层次结构在将原始数据编组和扩展到计算核心并将计算结果传送到系统中的其他块时逐渐变得越来越快。任何AI / ML解决方案都必须提供高速 I/O 除了快速的计算资源外,还具有合适的内存层次结构。

适用于AI / ML应用的Achronix Speedster7t FPGA

Achronix的Speedster7t FPGA专为AI / ML应用加速而设计。  Built with high-performance SerDes, high-bandwidth memory interfaces, dedicated 机器学习 processors and high-speed PCIe Gen5 ports, the Speedster7t FPGA family can handle the most demanding workloads. Speedster7t FPGA旨在解决关键的设计挑战,包括:

  • 从多个高速输入源中摄取大量数据
  • Storing and retrieving 这个 input data, along with the DNN models, partial results from each layer computation, and completed computations
  • Rapid distribution of 这个 data to on-chip resources that can perform the layer computations quickly
  • 以高速方式输出计算结果

Speedster7t解决方案

申请要求 Speedster7t解决方案
High-speed 输入输出 interfaces
  • 400G以太网端口
  • PCIe Gen5
  • 112 Gbps SerDes
高速内存访问
  • 4 Tbps GDDR6聚合带宽
  • 256 Gbps DDR4带宽
使用FPGA进行快速数据移动 2D片上网络(NoC),可提供高达20 Tbps的带宽用于高速,宽数据传输
高速灵活的数学运算支持

机器学习处理器:

  • 完全可分解整数乘法器/累加器
  • 灵活的浮点
  • 对块浮点的本机支持
  • 高效矩阵乘法

学到更多

Speedster7t设备

机器学习处理器