谷歌使用深度学习开发人工智能芯片

谷歌使用深度学习开发人工智能芯片

谷歌和加州大学伯克利分校创建了 PRIME 深度学习算法,以帮助开发用于处理人工智能任务的快速紧凑的处理器。

新方法基于现有蓝图和性能指标创建 AI 芯片架构。

该团队表示,使用 PRIME 设计方法制造的芯片的延迟比使用经典方法制造的芯片低 50%。 深度学习还将创建蓝图的时间减少了多达 99%。

谷歌使用深度学习开发人工智能芯片PRIME 算法的操作。 数据:谷歌。

研究人员在包括 MobileNetV2 和 MobileNetEdge 图像分类模型在内的九种人工智能应用中比较了 PRIME 构建的芯片与 EdgeTPU 加速器的性能。 他们强调,这些设计已针对每种应用进行了优化。

PRIME 方法将延迟提高了 2.7 倍,并将裸片面积减少了 1.5 倍。 科学家表示,这将降低芯片成本并降低功耗。

此外,在参与实验的所有九个应用程序中,支持 AI 的芯片的性能都更高。 与仿真创建的设计相比,其中只有三个具有更高的延迟。

谷歌使用深度学习开发人工智能芯片测试九个应用程序时的延迟比较(越少越好)。 数据:谷歌。

据研究人员称,PRIME 前景广阔。 这包括为需要解决复杂优化问题的应用程序创建芯片,以及使用低性能芯片的图纸作为训练数据。

回想一下,2021 年 6 月,谷歌曾谈到使用强化学习将芯片的创建速度从几个月缩短到六个小时。

10 月,该公司推出了带有张量芯片的 Pixel 6 和 Pixel 6 Pro 智能手机,用于自己设计的机器学习。

8 月,三星开始使用人工智能来自动化开发计算机芯片的过程。

在 Telegram 上订阅 ForkLog 新闻:ForkLog AI – 来自 AI 世界的所有新闻

在文本中发现错误? 选择它并按 CTRL+ENTER

内容搜集自网络,整理者:BTCover,如若侵权请联系站长,会尽快删除。

(0)
BTCover的头像BTCover
上一篇 14 4 月, 2022 5:49 下午
下一篇 14 4 月, 2022 5:47 下午

相关推荐