承诺大规模部署工业 4.0 技术的公司,其生产率比那些不太注重方法的公司提高了一倍。由于严重依赖分析来推动价值,这一承诺需要能够大规模生产分析模型。与物理批量生产一样,分析量产只有在有定义明确的流程和适当的技术可以优化以达到所需的吞吐量时才会成功。
调整生产和维护流程以接受来自分析、人工智能和机器学习到车间的输入可能具有挑战性。Gartner 的研究表明,到 2022 年,只有 20% 的分析见解能够带来业务成果。不必如此。
正如早期采用者所表明的,如果系统地采用工业4.0,将获得巨大的价值。我从最近的研究中收集了三个见解,为如何提高分析可以为车间提供的价值提供指导。
洞察 1: 财务承诺的回报远远优于涉足
2019年,德勤的一项研究发现,在智能工厂技术部署方面,领导者——开拓者——在产量、工厂产能利用率和员工生产率方面实现了20%的提高。开拓者不一定比其他人拥有更大的工厂预算。他们只是专注于其全球工厂预算,65% 用于智能工厂计划,而下一批工厂的投资比率为 19%。
相同的预算,不同的投资重点,双倍的收益。
然而,仅仅向智能工厂计划投入资金并不能保证成功。它也不是一两件事情,你安装,轻弹开关,并观看生产力的提高。通过数百个独立的分析程序不断摄入大量机器数据并及时为操作员提供见解,实现价值。要实现这一目标,您需要正确的分析环境。
洞察 2: 从高度可扩展的分析环境开始
一个常见的错误是专注于分析算法的开发,而不是考虑如何将算法集成到业务流程中。这直接导致大型分析辍学 Gartner 发现。2020年6月,《哈佛商业评论》的一篇文章承认了这一挑战。作者强调需要"从精心设计的生产环境开始"来释放人工智能的价值。他们继续将此描述为"足够灵活,能够快速流畅地进行系统重新配置和数据同步,同时不影响运行效率"的环境。
即支持智能工厂的分析环境必须能够:
-
不断摄入大量数据
-
将此数据准备用于分析
-
运行分析算法和
-
将结果发送到边缘或人机接口
所有这些都在一个时间范围内,使运营商能够根据交付的见解调整其流程。
选择在小型项目中充分执行的技术不能保证其性能达到智能工厂部署所需的规模。
此外,单靠技术并不能保证规模上的成功。要通过分析显著提高制造生产率,还必须提高数据科学家的生产率。
洞察 3:注重最大限度地减少数据管理瓶颈
当我在90年代中期开始我的职业生涯时,我们接受了80/20的数据规则。80% 的时间用于收集数据,20% 的时间用于提供价值。近20年后,这个比例变化不大,如果有的话。
一旦您了解了智能工厂项目的分析过程,共享数据管理任务的生产率收益就会变得更加清晰。我的同事马丁·威尔科克斯在这篇文章中更详细地解释了分析过程。我将用一个例子来说明数据管理协作的好处。
无论各个项目的业务目标(效率、质量、预测维护)如何,数据科学家都将从构建机器事件表开始。此表记录机器运行时间以及运行时的状态。通过创建机器事件表作为通用资源,生产力的提高会很快跟进。使用同一台机器的项目只需重复使用数据即可。需要来自不同机器数据的项目仍然可以从重复使用创建第一台机器事件表的转换中获益。
随着越来越多的项目为共享"库"的数据和分析程序提供数据准备,这些生产力的改进将加速。作为奖励,策划数据库还通过专注于数据治理工作来提高数据质量。高数据质量反过来又提高了分析质量。
总结:从小处着手,使用旨在扩展和协作的技术。
这三种见解的结合表明,通过智能工厂举措,提高生产率的明确途径:财务承诺、精心的技术选择和跨项目协作。工厂预算的财政承诺使人们能够专注于分析流程和技术,以便扩展和部署分析输出。
有了云部署选项和基于消费的定价模式,没有任何借口不启动您在Teradata Vantage上的初始项目。Teradata 使数据科学家能够利用敏捷的数据基础,鼓励协作。 最重要的是,Teradata 技术在为制造工艺提供价值所需的分析规模上得到验证。
连续 20 年:被公认为数据分析领域的领导者
随时了解情况
订阅 Teradata 的博客,获取每周向您提供的见解