首页 > 3D打印

看3D打印如何结合增强现实技术实现更智能的制造?

来源:3D科学谷2018.08.27阅读 12585

  智能设计的交互
  智能制造的基础是一个自动协作过程–人类和机器一起工作。根据市场观察,在一项名为“使用增强现实技术设计交互界面”的新研究中,一些研究人员使用增强现实技术为智能制造设计交互界面。
  在分布式数字控制(DNC)系统中,每台设备,不管是铣床还是3D打印机,都连接到机器的控制单元(MCU),MCU通过发送程序来控制这些设备,这些程序是机器要执行的一组指令的组合。MCU又称单片微型计算机或者单片机,我们在诸如手机、PC外围、遥控器,至汽车电子、工业上的步进马达、机器手臂的控制等,都可见到MCU的身影。
  研究人员为了使工厂智能化,普遍的方法是让机器操作员直接在机床上实现车间级的零件编程任务,这被称为手动数据输入(MDI),当然要实现车间级编程需要对操作员在零件编程方面的进行一定的基础培训。然而,当前的趋势却在“跳过”人工编程这个方向发展,操作员只需要手动将零件几何数据和运动命令输入MCU就可以了,这样MDI只处理简单的操作和零件。这就迫切需要合适的人机交互工具(HMI),以支持SmartMFG环境中的交互化和定制化。

  当然,很多人包括研究人员最关心的问题可能是HMI系统应该是什么样的,以便个人可以访问,并通过交互的方式实现智能制造?这时候,以AR为基础设计的界面的重要性就显现出来了,而以AR为基础的界面设计直接与MCU通讯,从而增加MDI系统中多方面交互并提高指令的复杂性。
  在这一设想的基础上,根据3D科学谷的了解,研究人员开发了一种样机系统,其中包括AR增强现实平板设备和作为设备端的Ultimaker 3D打印机。
  2D到3D
  基于由Google Tango AR工具包提供支持的华硕Zenfone智能手机,研究人员开发的软件系统利用物理对象的深度图像,允许用户虚拟地与构建平台进行交互。并且,系统还支持二次建模,用户可以在现有对象上绘制2D曲线,并通过简单的交互将2D曲线转换为3D形状。设计完成后,软件系统会将它们转换为一组控制和指导制造端设备的指令。使用无线网络将指令直接发送到3D打印机,这样一个全新的产品就被制造出来了。
  Zenphone设备通过Wi-Fi网络和Ultimaker 3 3D打印机建立通讯。物理坐标系和AR环境的坐标系通过QR代码来校对。研究人员还做了一个基于AR的设计系统,允许用户在现有物体上设计形状。Zenphone设备获取3D的点云数据,然后允许用户绘制和编辑2D曲线并将这些曲线投影到现有平面上。
  除了推动设备与控制系统的沟通,这个系统的另一个亮点在于建模过程的交互性,这使得用户可以进行二次建模,不管原来的模型是通过扫描完成的还是通过其他的建模软件由设计人员完成的,用户能够在增强现实中设计新对象,而且用户仅仅需要完成2D设计,软件将其转换为3D模型,然后将其传送到3D打印机上,这对传统CAD系统来说是难以实现的。