最近時間が合わず参加できてなかったので久しぶりの参加です。各講演と質問コーナーの一部についてまとめました。
1.HoloLensミートアップとは?
HoloLensミートアップは、2017年から不定期に開催している勉強会です。HoloMagiciansというコミュニティで開催されており、メンバーは2021/6/16時点で3451人です。
参考:https://hololens.connpass.com/event/214415/
今回はYouTubeライブでの配信形式でした。当日の配信URLです。
なお、後日アーカイブされるようです。
こちらの動画はしばらくしたら見えなくなりますが、TMCNチャンネルで再度アーカイブ公開します!#HoloMagicians https://t.co/L43tJ0Cka5 https://t.co/9gSEH1imZw
— morio@6/25(金)HoloLensミートアップ (@morio36) 2021年6月16日
2. 講演
2.1. バーチャル撮影システムとMR表現
発表者:イワケン@AR好き (@iwaken71) | Twitter
バーチャル撮影システムとは、リアルタイムに人物とCG背景を合成し撮影ができる仕組みとして説明されており、2020年4月に株式会社サイバーエージェントより発表されています。
この発表では、バーチャル撮影システムの活用事例を簡単に紹介し、MR表現をリアルタイムに伝える方法の検討について説明されています。
MRの表現をリアルタイムに伝える方法の例が、以下のYouTube動画で紹介されています。
なお、発表者の方は、HoloLens+UE関連の情報発信もされております。
2.2 xRコミュニティの変容予測と提言
発表者:Yaman@イマクリエイト (@yaman_xr) | Twitter
20210616 HoloLens Meetup.pdf - Google ドライブ
・HoloLensの活用について、ビジネスサイドから紹介
・技能習得が可能なVR訓練コンテンツを多数提供
・既存の訓練コンテンツは見るだけが多いが、「溶接VR」などの自社コンテンツでは、熟練者の動きを再現し、それをなぞることで手の動きを細かく習得できる
・販売方法も課題。自社だけではリソースが限られているので、顧客と一緒に販売
・受注率は10%以下。でも1件とれるとそこから広がることが多い
気になったので、イマクリエイト社の製品紹介に関するページリンクを貼りました。
ナップ溶接トレーニング|溶接のバーチャルトレーニングサービス
イマクリエイトが京大医学部監修の下、新型コロナワクチンの注射用VRシミュレーターを開発|イマクリエイト株式会社のプレスリリース
3. Q&Aコーナー
気になったところだけメモしました。
3.1 Azure Remote Renderingを導入する上で難しい点は?
・当初はSDKの破壊的変更が大きく追随するのが大変だった
・ドキュメントはかなり丁寧なので、試すこと自体はそこまで難しくない
3.2 HoloLensコンテンツ開発のための初学者向けの学習方法は?
・公式ドキュメントのチュートリアルがお勧め
・Unityだけあれば、HoloLens実機がなくてもUnityEditorやHoloLensエミュレータを使ってある程度の開発が可能
3.3 HoloLensアプリを作るときに気を付けていることは?
[開発の観点]
・開発者同士で同じバージョンの環境を使う (Unity, Visual Studio)
[要件の観点]
・案件についてそもそもHoloLensを使うべきかということも考えた方が良い
・クライアントとのイメージ共有をしっかりする。動くもので見せられればベストだが、プロトタイピングツールのFigmaを活用するのもあり
Figmaとは、Webブラウザベースでアプリイメージを作れる仕組みです。@takabrz1さんが使い方をQiitaで公開されています。
公式ドキュメントはこちらです。
Figma Toolkit - Mixed Reality | Microsoft Docs
4. HoloLens LT大会
ここからは5分ごとのLTでした。概要と確認できたスライドを示します。
4.1 Microsoft Map for Unityで遊ぼう!
発表者:HoloMoto@GeekHoloRanger 홀로모토poco a poco con moto (@HoloMotoRanger) | Twitter
Microsoft Map for Unityとは、BingMapと連動して、指定した範囲の地図の3Dモデルを表示できる仕組みです。今回はこれを使って現在位置の3Dモデルを取得し、Unityで表示させるという方法を紹介されています。
発表者の方のブログはこちらです。やり方が詳細に書かれております。
redhologerbera.hatenablog.com
公式の紹介ページはこちらです。
Maps SDK for Unity - Bing Maps
4.2 UE4とHoloLens2でBM Viewerを作った話
発表者:Jonさん (@crosssoniky28) | Twitter
BM = Ballistic Missille (弾道ミサイル) です。Wikipediaの説明はこちらです。
この発表では、過去のBMの弾道履歴を取得し、指定した弾道ミサイルがどこに着弾したのかを地球儀の3DCGモデルで確認することができるというものです。 作り方の詳細はスライドで紹介されております。
4.3 HoloLens2のWebARで軽率にImmersalによる位置合わせを行う
発表者:にー兄さん (@ninisan_drumath) | Twitter
Immersalとは、ARクラウドを実現するための仕組みです。いくつか関連しそうな記事を参考に掲載します。
4.4 HoloLens2なしでもMRを楽しむ
発表者:ふるかわ🌓 (@futa_ttjh) | Twitter
Mixed Reality関係のツールを多数調べて、その中から4つ紹介されております。公式HPや関連サイトのリンクを掲載します。
・Mixed Reality ToolKit
Unity 用の MRTK の概要 - Mixed Reality | Microsoft Docs
・Azure Spatial Anchors (iOS/Androidでも利用可能)
Azure Spatial Anchors のドキュメント - Azure Spatial Anchors | Microsoft Docs
・Azure Remote Rendering (PC上でも動作確認できる)
Azure Remote Rendering のドキュメント - Azure Remote Rendering | Microsoft Docs
・PowerAppsのMR機能 (AndroidのPowerAppで実行可能)
Power Apps で Mixed Reality コンポーネントを使用する (プレビュー) - Power Apps | Microsoft Docs
4.5 Microsoft MeshはAzure Remote Renderingの夢を見るか
発表者:morio@6/16(水)HoloLensミートアップ (@morio36) | Twitter
www.slideshare.net
Microsoft Mesh上でAzure Remote Renderingを試されたお話です。詳細は資料に掲載の通りです。
4.6 「あれ」がスマホで動くのか試してみた
発表者:takabrz1@Digital Twinsでエキサイト中 (@takabrz1) | Twitter
www.slideshare.net
「あれ」とは、Azure Digital Twinです。Azure Digital Twinとは、工場などの機器データをAzureに集めて、集めたデータから故障予測、工場へフィードバック(例:ボトルネック作業を検出) する仕組みです。
ここでは、Azure Digital TwinのサンプルコードがiPhoneとAndroidスマートフォンで動くことを確認された過程を発表されています。
Azure Digital Twinの公式ドキュメントはこちらです。
Azure Digital Twins のドキュメント - チュートリアル、API リファレンス | Microsoft Docs
Microsoft Learnというeラーニングのようなコンテンツをみると、より細かく理解することができます。
Azure Digital Twins の概要 - Learn | Microsoft Docs
4.7 SpatialAwarenessのSurfaceMeshesToPlanesについて
発表者:ずきゅ~んたん (@ZuQ9Nn) | Twitter
SpatialAwarenessのSurfaceMeshesToPlanesとは、空間認識の結果から、壁、床、天井を推定して、それぞれに対応した板ポリゴンを貼ってくれる機能です。MRTK2.6から追加された機能で現在はexperimental.
MRTKの前身であるHoloToolKit-Unityでも全く同じ名前の機能があり、Google検索では同じ名前がヒットするようです。(私も調べたら、We're moved!!というページが出てきました。確かに古い情報の方が多く表示されるようです)
MRTK v2.6のリリースノート をみると、SpatialAwarenessについては、「実験的な空間認識オブザーバーとして MRTK でシーンの理解が開始されました」という辺りに動画付きで少し説明がありました。
今後、MRTKがv3.0でまた変更される可能性があり、その中でどのように変化するかはまだ不明のようです。
5. おわりに
具体的な適用事例や新技術の登場など、ビジネスと技術面でとても勉強になりました。