您的位置:首页 > 大数据 > 人工智能

Nvidia推边缘运算平台EGX 未来将提供企业AI模型参考框架

2019-05-30 16:18 295 查看

Nvidia在COMPUTEX期间,展示了新推出的边缘运算平台EGX在不同场景中的应用,包括监测路况的实时影像分析与对话式AI客服等。EGX平台也能与Azure、AWS的云端运算服务兼容,企业可先在云端AI模型,再部署到本地端来应用。现场展示的对话式AI客服,是在顾客说话提问后,透过语音识别(Automatic Speech Recognition,ASR)将语言转化为文字,再经由自然语言处理(Natural Language Processing,NLP)到文本内容中寻找答案,最后运用文字转语音(Text To Speech,TTS)的技术回答顾客问题。而这整个流程,都是透过边缘运算完成。Nvidia表示,Chatbot常用三种AI技术中,训练ASR模型和TTS模型,适合在本地端,前者不用上传大量声音档案,后者则可避免网络的延迟性导致声音断断续续、或发音不完整,不过,要训练NLP模型则因运算量较大,可先在云端训练。

Nvidia也示范用只一篇新闻稿来展示用EGX平台训练这三种Chatbot所需模型的情况,首先让NLP模型来分析新闻稿文字。

示范人员实际提问:Who is Bob Pette?

这个示范系统会将从NLP模型找出来的答案,透过TTS模型生成语音来回答顾客;若无法在数据文本中找到答案,则会提供制式回答「Empty、No answer。」

Nvidia表示,未来提供企业的EGX平台,会包括执行边缘运算的硬件以及AI模型的参考框架。硬件的部分,EGX平台有强大的扩充性,可以支持体积极小、运算可达5 TOPS的Nvidia Jetson Nano,同时也能支持一整柜的Nvidia T4服务器,提供超过10,000 TOPS的效能。除了硬件之外,Nvidia也会释出的AI模型的参考框架,如应用案例中的NLP模型,是用目前最新、准确率最高、由google开源释出的NLP模型BERT来做,未来释出参考框架(Example model)后,可以让客户在平台上用自家数据来训练,也可以直接将训练好的模型替换到平台上。但参考框架会如何做、EGX平台未来会支持哪些深度学习框架,Nvidia并无透露。EGX平台的软件架构(Nvidia Edge Stack)与AWS、Azure的IoT云端服务相连,让企业能自行在云端建立AI模型,再部署到平台来应用,而在平台上建立的模型也能链接到云端使用,Nvidia产品营销部经理Paresh Kharya也表示,企业可以透过AWS IoT Greengrass和微软Azure IoT Edge来管理这些服务。更多相关人工智能信息:仲博虚拟体验馆 http://pharmacycentral.net/

(adsbygoogle = window.adsbygoogle || []).push({});
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
相关文章推荐