但我个人对此倒是颇有信心,在我看来在这个十年结束时,深度学习业界将大大简化其功能交付方式,意味着普通开发者也能够理解并加以采用。下面,我将与大家一同探讨关于深度学习未来发展方向的六项预测。
1.深度学习业界将采用一组核心标准化工具
到这个十年结束时,深度学习业界将建立起一组核心标准化工具框架。就目前而言,深度学习专家已经选定了一部分工具选项,其中大部分为开源项目。最具人气的成果包括TensorFlow、BigDL、OpenDeep、Caffe、Theano、Torch以及MXNet。
2.深度学习将在Spark之内实现原生支持
Spark社区将在未来一到两年内增强该平台的原生深度学习能力。通过本届Spark峰会的发言来看,整个技术社区似乎正将努力方向明确指向TensorFLow,而BigDL、Caffe与Torch也至少会被纳入支持范畴。
3.深度学习将在开放分析生态系统中找到坚实的利基平台
大多数深度学习部署方案立足于Spark、Hadoop、Kafka以及其它开源数据分析平台。愈发明确的趋势指出,我们将无法在缺少由这些平台提供的完整大数据分析能力的前提下实现深度学习算法的训练、管理与部署。具体来讲,Spark将成为实现深度学习算法在各类工具内规模化与加速建立的基础性平台。可以肯定的是,多数深度学习开发者正在利用Spark集群以实现超参数优化、快速内存数据训练、数据清理以及预处理等特定任务。
4.深度学习工具将引入经过简化的编程框架以实现快速编码
应用开发者社区将继续采用API及其它编程抽象方案,旨在降低代码行数以快速完成核心算法功能的开发。展望未来,深度学习开发者将越来越多地腰牌集成化、开放、基于云的开发环境,并由此访问更为广泛的现成及可插拔算法库。这一切将使得深度学习应用以可组装容器化微服务的形式实现API驱动型开发。此类工具将自动实现更多深度学习开发管道功能,同时提供适用于笔记本设备的协作与共享规范。随着这种趋势的加剧,我们将看到更多诸如《50行代码(Pytorch)实现生成式对抗网络》这样的头条新闻。
5.深度学习工具集将支持可复用组件的可视化开发
深度学习工具集将引入更多模块化功能以实现可视化设计、配置以及立足于原有构建组件的新模型训练。其中大部分可复用组件将通过“翻译学习”从原有项目中提取,用以解决类似的用例。可复用深度学习工件将被结合到标准库与接口当中,具体包括特征表达、神经节点分层、权重方法、训练方法、学习速率以及其它与原有模型相关的功能。
6.深度学习工具将被嵌入至每一类设计面
现在讨论“深度学习民主化”进程还为时过早。在未来五到十年内,深度学习开发工具、库以及语言将逐渐成为每一种软件开发工具集内的标准组件。同样重要的是,这些用户友好型深度学习开发能力将被嵌入至生成式设计工具内,以供艺术家、设计师、架构师以及来自各个领域的创造性工作者使用。推动这一切的正是深度学习工具的易用性,其强大的能力将被广泛应用于图像搜索、自动标记、仿真渲染、分辨率增强、风格转换、图形启发以及音乐编曲等层面。
随着深度学习在大规模市场化应用领域的快速推进,其将与数据可视化、商务智能与预测分析一道成为众多行业的立足基石。而各类尝试学习方案也将开始向自助服务式云交付模式转型,从而为那些不希望接触底层技术复杂性的用户提供便利。而这,也正是长久以来技术发展的必然趋势。
原文标题:6 predictions for the future of deep learning
原文作者:James Kobielus