OXR융합연구단, ‘2024 메타버스 엑스포’에서 XR협업플랫폼 XU:M 선보여
OXR융합연구단, ‘2024 메타버스 엑스포’에서 XR협업플랫폼 XU:M 선보여
  • 김수진
  • 승인 2024.06.11 09:00
  • 댓글 0
이 기사를 공유합니다

XR기반 시공관리서비스와 실버헬스케어 콘텐츠 직접 체험

OXR융합연구단은 오는 6월 26일부터 28일까지 코엑스(COEX)에서 열리는 ‘2024 메타버스 엑스포’에 참가하여 그동안 연구해온 성과를 전시할 예정이라고 밝혔다.

OXR융합연구단은 출연연의 각 분야 전문 역량과 고성능 인프라, 실증실험실을 대학의 창의적·도전적 연구역량과 융합하여 고품질 몰입형 XR 협업 플랫폼 및 다양한 XR 협업서비스, 고품질 몰입감과 사회적 공존감 향상을 위한 요소기술을 연구·개발하고 있다. 2021년 12월 KISTI를 주관기관으로 KAIST, 한국건설기술연구원, 한국한의학연구원 등이 협력하여 출범하였다.

메타버스 엑스포에서 공개될 XU:M은 고품질 몰입형 XR 협업을 지원하는 개방형 플랫폼으로 커뮤니케이션 서버와 다양한 요소 기술을 통합하여 협업 세션관리, 3D모델 및 문서 등 다양한 포맷의 데이터 공유, 실시간 상호작용과 동기화를 지원한다. 특히 여러 사용자가 이기종 XR 디바이스를 통해 원격으로 협업할 때 발생하는 공간적 이질성을 최소화하기 위한 공간매칭 기술을 통하여 향상된 몰입감과 사회적 공존감을 제공한다.

고정밀 시뮬레이션 데이터셋을 학습한 U-net을 사용하여 CNN기반의 빠른 시뮬레이터를 개발하고, 대용량 3차원 시계열 CFD 데이터를 XR에서 가시화하기 위한 프레임워크도 함께 선보인다. 개방형 협업플랫폼과 함께 프로그래밍에 익숙하지 않은 비전문가들도 쉽게 협업 콘텐츠를 구성하고 다양한 상호작용을 저작할 수 있는 노코딩 기반 XR 콘텐츠 저작도구(Xutudio)도 소개될 예정이다. 다양한 디바이스에 설치된 협업앱(XupeRApp)을 실행하여 저작된 콘텐츠를 불러와 원격 협업을 진행할 수 있으며, 이 협업앱을 커스터마이징 할 수 있는 개발환경(XuDK)도 제공된다.

또한 디지털트윈 생성, 관계기반 씬 그래프 생성·매칭, 실시간 잡음 및 잔향 제거, 손 자세 및 메쉬 추정, 모션-햅틱 및 역감 경험 렌더링, CG 아바타 재구성 및 아바타 상호작용, 3D 의류 재구성 등 몰입형 협업을 지원하는 다양한 시각, 청각, 촉각 상호작용 기술과 사회적 공존감을 향상시키기 위한 XR 요소기술들을 연구 개발하고 있으며, 멀티모달 햅틱기술은 전시되어 현장에서 직접 체험할 수 있다.

이 외에도 XR 기반의 다자간 협업서비스와 콘텐츠를 만나볼 수 있다. 대용량 BIM 데이터를 XR환경에 최적화한 BIM to XR 데이터 모델링 기술과 XR 협업환경에 BIM 도면을 업로드하여 설계 검토 및 시공관리를 하는 건설분야 XR 서비스, XR환경에서 신체기능(인지, 균형, 심혈관계)을 자가 평가하고, 가상의 공간에서 사용자(교수자, 학습자)간 상호작용을 통해 고령자의 인지기능과 운동 능력을 유지하고 개선하기 위한 XR기반 실버헬스케어서비스 등 다양한 다자간 XR기반 협업서비스도 만나볼 수 있다.

한편 OXR융합연구단은 XR 협업 콘텐츠와 서비스 개발 생산성을 높이고, XR 협업을 다양한 분야로 확장시키는 핵심기술로 활용될 수 있도록 XU:M 플랫폼과 요소기술 등 융합연구성과를 SDK와 오픈API로 단계적으로 개방할 계획이다.

OXR융합연구단 김민아 단장은 “이번 전시를 통해 XR 협업플랫폼의 혁신적인 기능과 가능성을 보여줄 예정이다. 많은 사람들이 XU:M을 직접 체험하고 향후 협업의 미래를 경험할 수 있기를 기대한다”고 전했다.