您的位置首页 >资讯 >

2021年12月31日最新消息:英伟达CEO表示 梅林将推动全球最重要的AI模式的发展

导读 英伟达发布了GTC数字大会的主题演讲,这是由首席执行官黄仁勋在他的厨房拍摄的。黄在演讲中介绍了全新的Ampere GPU架构、面向智慧医院的

英伟达发布了GTC数字大会的主题演讲,这是由首席执行官黄仁勋在他的厨房拍摄的。黄在演讲中介绍了全新的Ampere GPU架构、面向智慧医院的AI驱动医疗解决方案以及A100 GPU,其训练和推理速度比Volta快20倍。黄还介绍了推荐系统的应用框架Merlin,该框架被黄认为是“当今世界上最重要的AI模型”,它“驱动了互联网的大多数经济引擎”。

推荐系统可以决定购物者在电子商务商店看到什么,或者个性化他们在网飞或微软Xbox等网站上看到的结果。此外,由于这些系统收集了大量数据,它们的规模很容易扩大。

黄预测,A100驱动的AI模型通常会变得更大,因为数据密集型推荐模型和多模态AI会从各种形式的媒体(如文本、视觉或声音)获得输入。

黄说:“随着Ampere和这一代(GPU)的诞生,我们将看到一些真正巨大的AI模型已成定局。”“未来,因为你使用网站或商店来构建模型,它会有上下文信息、连续信息和序列信息。这些模型将是巨大的。当您进入许多不同的领域时,我们将为机器人技术做这件事。”

操纵推荐系统引起了包括Celeste Kidd在内的机器学习社区成员的注意,他们在去年的NeurIPS主题演讲中谈到了这一点。在对脸书的猛烈批评中,深度学习图书馆Keras的创始人Fran oisChollet敦促AI社区创建一个“透明、可配置和建设性的”推荐引擎,而不是老虎机,以实现利润或政治收益的最大化。

英伟达今天还宣布了Jarvis多模态对话AI应用框架的有限可用性。贾维斯将图形与对话式AI相结合,创造了黄所说的交互式3D聊天机器人。你可以在下面的视频中看到演示。

自从深度学习重新出现以来,训练顶级人工智能模型所需的计算量一直在稳步增长。例如,英伟达产品管理总监Paresh Kharya指出,2016年训练ResNet-50所需的计算量比训练威震天(基于BERT的语言模型,有数十亿个参数)所需的计算量少3000倍。

Nvidia今天还分享了许多其他有新闻价值的更新,包括为使用Apache Spark或微软Azure或AWS等公共云的数据科学家引入GPU加速。公司还首次发布了面向边缘AI的EGX A100,将于2020年底推出,并宣布抢先发布Omniverse图形仿真平台。

GTC数字会议原定于3月份在位于加州圣何塞的英伟达总部附近举行。

标签:

免责声明:本文由用户上传,如有侵权请联系删除!