当前位置:   article > 正文

【iOS ARKit】人脸追踪之挂载虚拟元素

【iOS ARKit】人脸追踪之挂载虚拟元素

        人脸跟踪(Face Tracking)是指将人脸检测扩展到视频序列,跟踪同一张人脸在视频序列中的位置。是论上讲,任何出现在视频中的人险都可以被跟踪,也即是说,在连续视频帧中检测到的人脸可以被识别为同一个人。人脸跟踪不是人脸识别的一种形式,它是根据视频序列中人脸的位置和运动推断不同视频帧中的人脸是否同一人的技术。

  • 挂载虚拟元素

      在iOS Realitykit 中,在检测到的人脸面部挂载虚拟元素的实现方式有两种:一种是通过遵循ARSesionDelegate 协议,执行 session(_ session: ARSession, didAdd anchors: LARAnchor」)方法,在获取的ARPaceAnchor 上挂载虚拟元素;另一种是与 Reality Composer结合使用。在使用第一种方式时,可以利用 ARFaceAnchor 初始化一个 AnchorEntity 类型实例,这样,ARFaceAnehor的姿态信息就可以直接被使用,典型的使用代码如下:

  1. public func session(_ session: ARSession, didAdd anchors: [ARAnchor]){
  2. guard let pAnchor = anchors[0] as? ARObjectAnchor else {
  3. return
  4. }
  5. let objectName = pAnchor.referenceObject.name == "jinhua" ? "toy_drummer" : "toy_robot_vintage"
  6. DispatchQueue.main.async {
  7. do{
  8. let myModeEntity = try Entity.load(named: objectName)
  9. let objectEntity = AnchorEntity(anchor: pAnchor)
  10. objectEntity.addChild(myModeEntity)
  11. myModeEntity.playAnimation(myModeEntity.availableAnimations[0].repeat())
  12. self.arView?.scene.addAnchor(objectEntity)
  13. } catch {
  14. print("加载失败")
  15. }
  16. }
  17. }

      在检测到的人脸上挂载虚拟元素使用 RealityKit 与Reality Composer 结合的方式更方便直观,特别是需要在很多虚拟元素之间进行切换时,可以大大简化代码逻辑。使用第二种方式的操作步骤如下:

 (1) 打开 Reality Composer,并创建一个锚定到人脸的工程(Reality Composer 具体操作参阅第10章),如图5-5所示。

 (2)导入需要挂载的 USDZ 或者 Reality 模型文件并调整到参考人脸理想的位置,然后给场景命名(命名时建议使用英文字母或者英文字母与数字组合,方便在RealityKit 中调用),如图5-6所示。

(3)在Reality Composer 菜单中依次选择“文件”—“保存”(或者使用快捷键 Command+S)保存工程为FaceMask. rcproject 文件(工程名根据需要自行命名)。

(4)使用 RealityKit 加载工程文件到内存,直接获取工程文件中的锚点信息并将其作为 ARAnchor 添加到 ARVeiw.scene 场景中即可。这里需要注意的是,ARKit会在检测到人脸后自动在指定的位置挂载虚拟元素,但 ARKit 并不会自动运行人脸检测的 ARSession,因此,需要手动运行人脸检测的 ARSession 以开启人脸检测功能,典型代码如代码下:

  1. struct FaceMaskContainer : UIViewRepresentable{
  2. func makeUIView(context: Context) -> ARView {
  3. let arView = ARView(frame: .zero)
  4. return arView
  5. }
  6. func updateUIView(_ uiView: ARView, context: Context) {
  7. guard ARFaceTrackingConfiguration.isSupported else {
  8. return
  9. }
  10. let config = ARFaceTrackingConfiguration()
  11. config.isWorldTrackingEnabled = false
  12. config.providesAudioData = false
  13. config.maximumNumberOfTrackedFaces = 1
  14. config.isLightEstimationEnabled = true
  15. // uiView.session = context.coordinator
  16. if let faceAnchor = try? FaceMask.loadGlass1() {
  17. uiView.scene.addAnchor(faceAnchor)
  18. }
  19. uiView.session.run(config,options: [.resetTracking, .removeExistingAnchors])
  20. context.coordinator.arView = uiView
  21. let gesture = UISwipeGestureRecognizer()
  22. gesture.direction = [.left,.right]
  23. gesture.addTarget(context.coordinator, action: #selector(context.coordinator.changeGlass(gesture:)))
  24. uiView.addGestureRecognizer(gesture)
  25. }
  26. func makeCoordinator() -> FaceMaskContainerCoordinator {
  27. FaceMaskContainerCoordinator()
  28. }
  29. class FaceMaskContainerCoordinator: NSObject {
  30. var arView :ARView?
  31. var faceMaskCount = 0
  32. let numberOfMasks = 5
  33. @MainActor @objc func changeGlass(gesture: UISwipeGestureRecognizer){
  34. guard let arView = arView else {
  35. return
  36. }
  37. let jian = gesture.direction == .left
  38. jian ? (faceMaskCount -= 1) : (faceMaskCount += 1)
  39. if faceMaskCount < 0 {
  40. faceMaskCount = 5
  41. }
  42. faceMaskCount %= numberOfMasks
  43. switch faceMaskCount {
  44. case 0:
  45. if let g = try? FaceMask.loadGlass2(){
  46. arView.scene.anchors.removeAll()
  47. arView.scene.addAnchor(g)
  48. }
  49. case 1:
  50. if let g = try? FaceMask.loadIndian() {
  51. arView.scene.anchors.removeAll()
  52. arView.scene.addAnchor(g)
  53. }
  54. case 2:
  55. if let g = try? FaceMask.loadRabbit() {
  56. arView.scene.anchors.removeAll()
  57. arView.scene.addAnchor(g)
  58. }
  59. case 3:
  60. if let g = try? FaceMask.loadHelicopterPilot() {
  61. arView.scene.anchors.removeAll()
  62. arView.scene.addAnchor(g)
  63. }
  64. case 4:
  65. if let g = try? FaceMask.loadGlass1() {
  66. arView.scene.anchors.removeAll()
  67. arView.scene.addAnchor(g)
  68. }
  69. default:
  70. break
  71. }
  72. }
  73. }
  74. }
  75. struct FaceCheckingContainer: UIViewRepresentable {
  76. @Binding var faceMetre: Bool
  77. func makeUIView(context: Context) -> ARSCNView {
  78. let arView = ARSCNView(frame: .zero)
  79. return arView
  80. }
  81. func updateUIView(_ uiView: ARSCNView, context: Context) {
  82. guard ARFaceTrackingConfiguration.isSupported else {
  83. return
  84. }
  85. if faceMetre {}
  86. let config = ARFaceTrackingConfiguration()
  87. config.isWorldTrackingEnabled = false
  88. config.providesAudioData = false
  89. config.maximumNumberOfTrackedFaces = 1
  90. config.isLightEstimationEnabled = true
  91. uiView.delegate = context.coordinator
  92. uiView.session.run(config,options: [.resetTracking, .removeExistingAnchors])
  93. }
  94. func makeCoordinator() -> FaceCheckingContainerCoordinator {
  95. FaceCheckingContainerCoordinator(self)
  96. }
  97. class FaceCheckingContainerCoordinator: NSObject, ARSessionDelegate,ARSCNViewDelegate {
  98. var parent : FaceCheckingContainer
  99. init(_ parent: FaceCheckingContainer) {
  100. self.parent = parent
  101. }
  102. func renderer(_ renderer: SCNSceneRenderer, nodeFor anchor: ARAnchor) -> SCNNode? {
  103. guard let device = renderer.device else {
  104. return nil
  105. }
  106. let faceGeometry = ARSCNFaceGeometry(device: device)
  107. let node = SCNNode(geometry: faceGeometry)
  108. if parent.faceMetre {
  109. //显示图片面具
  110. let matrial = node.geometry?.firstMaterial
  111. matrial?.diffuse.contents = "face.scnassets/face.png"
  112. node.geometry?.firstMaterial?.fillMode = .fill
  113. }else {
  114. //显示网格
  115. node.geometry?.firstMaterial?.fillMode = .lines
  116. }
  117. return node
  118. }
  119. func renderer(_ renderer: SCNSceneRenderer, didUpdate node: SCNNode, for anchor: ARAnchor) {
  120. guard let faceanchor = anchor as? ARFaceAnchor,
  121. let facegeometry = node.geometry as? ARSCNFaceGeometry else {
  122. return
  123. }
  124. facegeometry.update(from: faceanchor.geometry)
  125. }
  126. }
  127. }

   在代码中,首先检查设备对人脸检测的支持情况,在设备支持时运行人脸检测配置开启测功能,然后加载由 Reality Composer 配置好的虚拟模型。本示例我们在 Reality Composer 中创建场景,每一个场景使用了一个虚拟元素,为方便切换不同的虚拟元素,我们使用了滑动手势控制场实现的效果如下图所示。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/article/detail/47740
推荐阅读
相关标签
  

闽ICP备14008679号