以色列人工智能初创公司 Deci 宣布,它已经使用中央处理器 (CPU) 实现了“突破性的深度学习性能”。
消息出来了 🎉 我们很高兴地宣布,我们称为 DeciNets 的图像分类模型系列在包括英特尔 Cascade Lake 在内的大型 CPU 上达到了行业领先的新水平。 /1 pic.twitter.com/aCKGBDFpGo
—Deci AI (@deci_ai) 2022 年 2 月 16 日
该公司表示,DeciNets 图像分类模型针对英特尔 Cascade Lake 处理器进行了优化。 它使用 Deci 获得专利的自动神经架构构建 (AutoNAC) 技术,在 CPU 上运行的速度和准确度是谷歌在类似硬件上的 EfficientNets 的两倍多。
不同硬件上模型的学习速度比较。 数据:决定。
Deci 联合创始人兼首席执行官乔纳森·盖夫曼 (Jonathan Geifman) 表示,他们的目标不仅是开发更准确的模型,而且是资源节约型模型。
“AutoNAC 正在构建当今可用的最佳计算机视觉模型,现在可以在处理器上部署和运行新型 DeciNet 网络,并有效地运行 AI 应用程序,”他补充道。
该公司还表示,它已与英特尔合作近一年来优化该公司处理器的深度学习。 他们补充说,Deci 的一些客户已经在制造业中采用了其 AutoNAC 技术。
图像分类和对象识别是应用深度学习算法的主要任务之一。 据专家介绍,缩小 GPU 和 CPU 之间的性能差距不仅有助于降低开发现代 AI 算法的成本,还有助于减轻视频加速器市场的负担。
回想一下,2021 年 4 月,莱斯大学的科学家开发了一种新的深度学习引擎,它在中央处理器上训练神经网络的速度比在 GPU 上快 4-15 倍。
5 月,科学家使用 AI 将Cosmos模拟速度提高了 1000 倍。
在 Telegram 上订阅 ForkLog 新闻:ForkLog AI – 来自 AI 世界的所有新闻
在文本中发现错误? 选择它并按 CTRL+ENTER
内容搜集自网络,整理者:BTCover,如若侵权请联系站长,会尽快删除。