欢迎来到晨喜集团有限公司

模型web迁移延时太长,机器学习神器Cortex 能一键解决吗?

正文:

机器学习算法安放平台Cortex宣布推出 Cortex V0.13 。

据介绍,这次的Cortex v0.13声援了一切的主要机器学习框架。

Cortex行为一款为生产Web服务的工具,能够和AWS服务结相符首来,重点解决jupyter notebook到生产的匮乏基础框架的题目。

现在的TensorFlow,PyTorch或者其他机器学习框架必要的技能与处理Docker、Kubernetes、NVIDIA驱动程序的技能并不兼容。也就是说机器学习模型从笔记本迁移到云上面能够必要消耗数周的时间。

这栽耽延往往导致大量的计算资源产生铺张,并且用户体验有很高的挑起飞间。而Cortex v0.13挑供了大量新特性,升迁了行使体验,能够更方便迅速地将机器学习模型展望行为网络服务安放到生产流程中。

详细而言,此次的Cortex v0.13改进了自动扩展、众框架声援、CPU/GPU声援、展望监测、最幼化的声明式配置、起伏更新、日志流等功能。

自动扩展:Cortex能够自动调整API,已处理生产环境下的做事负载,避免高耽延,缩短AWS账单;

众框架声援:Cortex普及声援TensorFlow,Keras, PyTorch, Scikit-learn, XGBoost的众个机器学习框架;

CPU/GPU声援:Cortex可在CPU或GPU基础设施上运走推理义务;

起伏更新:直接将更新行使在API上,轻巧将Web服务过渡到新模型,不会产生耽延;

日志流:能够Cortex中实时查望日志,从而协助简化流程;展望监测:可检测网络量度,并追踪展望效果;

Spot 实例:能够享福最高的扣头;

最幼化配置:安放配置仅由一个cortex.yaml文件定义。

总的来说,整个Cortex采用TensorFlow,Kubernetes和Docker等开源工具,并将它们与CloudWatch等AWS服务相结相符,合作伙伴能够为开发人员挑供了一个API来安放其模型;然后,将模型集装箱化,然后将其安放到幕后的Kubernetes上,Cortex会自动扩展做事量,倘若计算量很大,能够切换到GPU。

开源Github,手把手教你如何配置

现在,创首人也公布了Github地址,给出了大量的运走示例,包括,TensorFlow、PyTorch、XGBoost、scikit-learn。

雷锋网截图

github地址:https://github.com/cortexlabs/cortex/tree/0.12/examples

如上所示,在TensorFlow的分类中,给出了鸢尾花分类、文本生成、情感分析、图像分类等例子;PyTorch的例子包括,浏览理解、说话生成、图像分类等等。

机器学习神器?网友评论褒贬纷歧!

Cortex的更新,其创首人也在Reddit 论坛上更新了告诉。在Reddit帖子下面,网友也发外了评论:有人认为能够添速机器学习模型的训练,也有认为在声援功能上还有待改进。

雷锋网截图

为啥要将Cortex和AWS绑在一块?为啥不声援 一切的k8s集群?为啥不克经过运走Minikube在本地测试Cortex?——来自网友的灵魂三连问

雷锋网截图

现在也在Google Cloud中,他们挑供ML展望服务,但是他们都不行使容器,吾认为这是一大上风。末了,你对最新版的Cortex有何评论,在文末给吾们留言吧~

参考链接:https://towardsdatascience.com/cortex-v0-13-bba9b9b59131

posted @ 20-02-10 05:01  作者:admin  阅读量:

Powered by 晨喜集团有限公司 @2018 RSS地图 html地图

Copyright 站群 © 2013-2018 360 版权所有