2019年1月9日,在Las Vegas, Nevada (位于美国内华达州拉斯维加斯),Gyrfalcon Technology Inc. (以下简称“GTI”)充分展示了公司的关键核心技术,这些技术以最高性能的AI数据加速和低功耗来引领行业,使解决方案非常快速和有效,支持最大规模的部署。
GTI公司成立于2017年,利用了相同的专利架构和软件,先后推出了三种不同的芯片。自2018年9月走出隐身模式以来,GTI的核心技术和核心产品先后在著名的出版物上发表过文章,包括《Forbes》、《EE Times》、《ZDNet》和《Semiconductor Engineering》等。
GTI AI芯片加速了用于主机处理器的人工智能数据,并允许任何设计在节约能源的同时提供更快、更精确的结果。随着结果的优越性和资源的减少,使用GTI芯片的设计将比其他加速人工智能数据的方法有效得多。所有的AI加速器都使用主机处理器,甚至是GPU,无论加速器是用于边缘还是云计算,因此采用GTI的技术优势将极大地提高并改善客户创建AI的解决方案。将优势显著结合起来,增加对客户的设计,通过使用更少的能源包括更高的性能(降低成本),或使用少量设备,甚至于采用无限扩张的灵活性,更低成本有效地创建自定义模型。因此就很容易理解了,我们的人工智能是如何为大规模生产的商业产品提高1000倍的效率的。
所有产品均利用GTI提供的三项专利和专有技术引擎,MPE(矩阵处理引擎),ConStreaming™引擎,这是GTI专利,独特且极其有效的卷积神经网络引擎,以及GME(Gyrfalcon MRAM引擎) )这是业界首款,只有这项技术才能实现嵌入式MRAM引擎。所有这些引擎在终端设备和数据中心运营中都能提供卓越的结果和效率。它们受到50多项专利的保护,包括已经授予的专利和仍在进行中的专利,并且专利持续增长。
上面提到的MPE支持AI加速器,就像人脑一样,逻辑和内存集成在一起,这样在处理人工智能数据时就不会浪费精力和时间。 AI算法可以即时访问数据,快速提供结果,并且不会浪费将数据移入和移出位于系统其他位置的离散存储器的能量。这使得数据处理具有非常高的性能,同时使用非常少的能量。
第一款芯片,Lightspeeur®2801S解决了广泛的Edge AI应用,并立即提供给全球公认的消费电子产品,企业和工业公司去应用此技术设计产品。IDC在最近的一份报告中称,“到2019年,大约45%的人工智能数据将在Edge上存储、执行和操作”,这使得Edge由于其独特的机遇,成为GTI的一个有吸引力的目标。因此,GTI推出了第一款Edge AI芯片.此外,还因为Edge AI具有极具挑战性的成功标准,创始人发现,对于需要设计能够以高性能加速AI并且耗能极少的设备的客户而言, 需要同时规模小,成本低,没有选择性。 在2017年9月推出该芯片后,许多客户立即开始使用该芯片,成为上市产品的验证者。
该芯片具有9.3 TOPS / W的等效性能,并采用28nm工艺技术。 它尺寸为7x7mm,非常小,可容纳各种边缘设备。 它的峰值性能为5.6 TOPS,在0.3 W时可提供2.8 TOPS。2801S的USB dongle版本已于2018年开始供客户使用,许多产品已通过市场营销与英特尔Movidius产品进行了比较。 相比之下,2801S更适合采用大规模采用的商用设备,因为它提供了更好的性能(2801S , 5.6 TOPS VS Movidius,1 TOPS),更好的功率使用(2801S的0.3W, 2.8TOPS VS Movidius的1W ,1 TOPS)和更小的尺寸和更低的价格。 它支持VGG和SSD,为支持核心优势的人工智能应用,客户正瞄准更多的机会。
第二款芯片,TheLightingpee®2802M是整个行业中第一款将MRAM集成到其设计中的芯片,并使用专有的GME(Gyrfalcon MRAM引擎),为Edge AI设计带来了诸多优势。 使用2803M的设备可支持在同一芯片上同时运行的多个型号,或非常大的AI型号,因为该芯片可提供40MB内存。 多个模型对于需要复杂的AI实现以支持用户交互或多阶段AI功能的设备非常重要。 该芯片采用22nm工艺技术,并提供非易失性存储器,这对于物联网端点和边缘设备至关重要,这些设备在退出睡眠模式或电源中断后需要立即运行。 对于使用太阳能或电池供电的远程设备,这是一项强烈的需求。
该芯片的客户特定版本可以开发,以满足客户大批量应用的特定设计。这将实现额外的设计功能,例如一次性可编程性,以提高安全性,非电泄漏和读取速度,最高可达到为10ns。非电泄漏将在更具挑战性的环境条件下提供一致的性能,并且允许该芯片的非常大的版本设计具有显着提高的加速性能,而与较小尺寸的版本相比对功率使用的影响最小。高达10ns的读取速度可以使芯片上的电源使用性能达到约30 TOPS / W,与任何其他提供AI加速的产品或技术相比,效率惊人。
第三款芯片,Lightspeeur®2803S增加了速度和功能,是先进边缘产品(家庭和小型办公室中心,自动驾驶车辆,机器人等)以及提供云AI的数据中心的理想选择。
该芯片具有24 TOPS / W的等效性能,并采用28nm工艺技术。 它的尺寸小为9x9mm,在0.7 W时的峰值性能为16.8 TOPS。它还支持448x448x4图像尺寸,满足更多种应用需求。 448x448图像尺寸近似为VGA图像尺寸,x4表示图像的红色,绿色和蓝色标准格式,添加了3D以用于高级相机相关的AI应用程序。 该芯片可支持各种神经网络,包括ResNet,MobileNet,ShiftNet,VGG和SSD。
它作为独立芯片提供,基于USB的Dongle将提供给设计先进边缘设计的客户,或者在即插即用数据中心实现中使用它,利用Dongle进行AI加速器芯片扩展。 GAINBOARD™系列加速卡可配置2801S或2803S芯片,目前,2801S仅支持并联方式,2803S支持级联与并联两种方式。2803S支持两种扩展模式:一、多颗芯片级联,线性提升AI算力,运行大规模神经网络;二、多颗芯片并联,同时处理多任务。
所有Lightspeeur®芯片均可并联使用,可将所有芯片封装到GAINBOARD™产品中,如4芯片M.2卡,16芯片PCIe服务器卡和64芯片服务器产品。客户可以灵活地选择在先进边缘,边缘服务器或数据中心服务器设计中精确设计多少芯片。先进边缘产品将是无人机,先进的监控设备,机器人和自动驾驶汽车。边缘服务器可以是复杂的工作站,家庭和小型办公室AI中心,以及用于小型私人学校,大厦或社区的单卡AI服务器。数据中心服务器将提供大规模云AI服务器操作。这提供了无限的灵活性,因为模型可以大量并行运行,并且在系统中的实际芯片数量没有限制。
当在2803S的PCIe配置上使用这些优势时,它比硅谷流行的NVIDIA T4等市场选择或英国的Graphcore芯片等新的挑战者等要有效率得多。16芯片PCIe的2803提供了271TOPS,而NVIDIA T4在PCIe中仅提供65 TOPS,而Graphcore在使用2个芯片的类似配置中仅提供248TOPS。将TOPS的结果与所使用的功耗进行比较,可以看出其对于先进边缘或数据中心操作的卓越效果,因为2803S PCIe将仅使用28W,而NVIDIA PCIe将消耗70W, Graphcore PCIe将消耗高达300W的功耗。
性能与功耗的比值说明了一切,2803S提供了惊人的10TOPS /W,而NVIDIA PCIe提供了大约1 TOPS/W,而Graphcore提供了不到1TOPS/W。这些对于高级人工智能加速来说是非常不经济的,而且它们甚至没有更好的性能。当您将其中四种PCIe卡打包到标准服务器配置中时,您可以将对数据中心的影响增加四倍。
使用GTI芯片的Cloud AI可以支持广泛的用例,包括图像识别,文本分类,情感分析,语言翻译,文本预测,聊天机器人操作,阅读理解和图像字幕。
GTI提供完整的产品生态系统及广泛的机会。 我们拥有不断增长的芯片组合,我们拥有全系列的系统产品,如M.2卡,PCIe卡和服务器产品,我们拥有全方位的开发资源,可供客户用于创建非常吸引力且有效的商业解决方案。这些工具包括非常简单的“Plai Builder”,允许非专业用户使用最少的步骤或专业知识创建AI模型。 “Plai”(People Learning Artificial Intelligence)英语中解释意为“全民学习人工智能”是公司致力于简化AI模型创建,适应非专业模型创建者。 GTI还提供SDK,一些具有现有的参考AI模型库和其他工具,用于将芯片设计到器件中,并将现有模型移植到在GTI芯片架构上运行的格式。还有PlaiGround,它代表了公司的4D计划,将提供去中心化,分布式,基于设备和深度学习的AI模型,支持由客户,AI建模服务和机构开发的非常具有挑战性和创新的AI模型范围。
一些客户和合作伙伴代表Gyrfalcon和合作的技术发表了演讲。在最近的一次新闻发布会上,京都副省长Akimasa Yamasita先生表示了对GTI的认可:“我们非常高兴GTI能够参加大数据会议。我们认为最有效的大数据是利用AI人工智能,我们相信Gyrfalcon是硅谷最成功的AI公司之一,并期待与GTI有更多的合作机会“
最新评论