在本教程中,我们将介绍检测用户是否在微笑,并使用此逻辑来控制 SwiftUI 视图。
通过利用 ARKit,我们可以在我们的应用程序中构建逻辑,根据用户是否微笑来改变我们的 UI:
这个模板将为我们设置一个基于 RealityKit 的启动项目,其中逻辑被分解为一个 ARModel 和 ARViewModel swift 文件。
为了构建我们的项目,我们需要执行以下操作:
我们希望我们的 ARView 能够识别每一帧的更新,以便响应用户何时开始微笑和停止微笑。为了实现这一点,我们将我们的 ARViewModel 修改为我们的 ARSessionDelegate。
导入 ARKit,修改 ARViewModel 类以符合 UIViewController 和 ARSessionDelegate 协议:
import ARKit
class ARViewModel: UIViewController, ObservableObject, ARSessionDelegate {
}
接下来我们将添加一个函数来将 ARViewModel 文件设置为会话委托:
func startSessionDelegate() {
model.arView.session.delegate = self
}
最后