※ 해당 내용은 Inference Engine 2.2를 기준으로 작성된 글입니다. 1. Inference Engine이란?유니티에서 제공하는 신경망 추론 라이브러유니티 내에서 신경망 모델을 이용해 CPU 또는 GPU로 실시간 추론이 가능 2. Inference Engine의 작동 흐름1. 네임스페이스 사용using Unirt.InferenceEngine;2. 모델 로드// 1번ModelAsset modelAsset = Resources.Load("model-file-in-assets-folder") as ModelAsset;var runtimeModel = ModelLoader.Load(modelAsset);//2번[SerializeField] private ModelAsset modelAsset;pri..