- 拡張現実とは何ですか?仮想現実とはどのように異なりますか?
- 拡張現実のユースケース
- 拡張現実のためのハードウェア要件
- 拡張現実のモーショントラッキングセンサー
- 拡張現実でのモーショントラッキング
- ARの位置追跡センサー
- ARがリアルに感じられる理由は何ですか?
- 拡張現実を作成するためのツール
- ARとVRで使用される重要な用語
過去数年間で、拡張現実と仮想現実が急速に成長しています。これらのテクノロジーは、視覚化をより簡単かつ効果的にすることで、世界が複雑なことを理解するのに役立ちます。これらを使用すると、オブジェクトを3次元で簡単に視覚化でき、架空のオブジェクトの仮想イメージを作成するだけでなく、実際のオブジェクトの3Dイメージも作成できます。
人類におけるバーチャルリアリティの最初の実験は、1968年にサザーランドによって行われました。彼は非常に重い機械的に取り付けられた巨大なヘッドディスプレイを作成し、「ダモクレスの剣」と名付けました。同じもののスケッチを以下に示します。
「拡張現実」という用語は、1992年に2人のボーイングの研究者によって造られました。彼らは航空機の部品を分解せずに分析したいと考えています。
Googleは、スマートフォンでARコンテンツを作成するのに役立つARCoreをすでにリリースしています。多くのスマートフォンはARcoreをサポートしており、ARアプリをダウンロードするだけで、他の要件なしでそれを体験できます。AR対応スマートフォンの一覧はこちらからご覧いただけます。
これらのテクノロジーとそれらの違いを理解して、ARとVRの世界に飛び込みましょう。
拡張現実とは何ですか?仮想現実とはどのように異なりますか?
拡張現実は、コンピューターで生成されたオブジェクトが画像処理を使用して配置されている現実の物理世界の直接または間接のライブビューです。「増強」という言葉は、他のものを追加することによって物事を大きくすることを意味します。ARはコンピューティングを現実の世界にもたらし、環境内のデジタルオブジェクトや情報と対話できるようにします。
ではバーチャルリアリティ、シミュレートされた環境は、ユーザーが経験の内側に配置された作成されます。つまり、VRはあなたを新しい体験へと導きます。したがって、場所を見るためにそこに行く必要はなく、そこにいるのがどのようなものかを感じます。OculusRiftやGoogleCardboardはVRの例です。
複合現実感とは、ARとVRの両方を組み合わせたもので、仮想環境を作成し、そこに他のオブジェクトを拡張することができます。
上記の画像と定義を観察するだけで、これらのテクノロジーの違いを確認できます。
最も重要な違いは、ハードウェア自体にあります。VRを体験するには、スマートフォンから電力を供給したり、ハイエンドPCから接続したりできるヘッドセットが必要です。これらのヘッドセットは、1つのフレームを落とすことなく仮想世界をスムーズに観察できるように、低遅延のパワーディスプレイを必要とします。一方でAR技術は、任意のヘッドセットを必要としない、あなただけの携帯電話のカメラを使用して、任意の時点で経験ヘッドセット無料ARに指定されたオブジェクトに向けてそれを保持することができます。
ARにスマートフォンを使用する以外に、MicrosoftHololensのようなスタンドアロンのスマートグラスを使用できます。Hololensは、さまざまな種類のセンサーとカメラが埋め込まれた高性能スマートガラスです。ARを体験するために特別に設計されています。
拡張現実のユースケース
ARは若い媒体であり、すでにさまざまな分野で使用されていますが。このセクションでは、ARの最も一般的なユースケースのいくつかを見ていきます。
1.ショッピングおよび小売用のAR:このセクターはARテクノロジーを非常に広範囲に使用しています。ARを使用すると、時計、衣服、化粧、眼鏡などを試すことができます。眼鏡を購入するためのオンラインプラットフォームであるLenskartは、ARを使用して実際の外観を感じさせます。家具もARの最良の使用例です。家具を購入したい家/オフィスの任意の部分にカメラを向けることができます。カメラは、正確な寸法で3Dで可能な限り最高のビューを表示します。
2. AR for Business:製品やサービスとの相互作用を可能にするARも使用している専門組織。小売業者は顧客に製品を利用するための斬新な方法を提供でき、広告主は没入型キャンペーンで消費者にリーチできます。倉庫は、労働者に役立つナビゲーションと指示を作成できます。建築事務所は、3D空間でデザインを表示できます。
3.ソーシャルメディア用のAR: SnapchatやFacebookなどの多くのソーシャルメディアプラットフォームは、ARを使用してさまざまなタイプのフィルターを配置しています。ARはあなたの顔をデジタルで操作し、あなたの写真をより面白くて面白いものにします。
4.ゲームにおけるAR: 2016年、 PokemonGo は最初のバイラルARゲームになります。とても面白くてリアルだったので、人々はこのゲームに夢中になりました。現在、多くのゲーム会社がARを使用して、キャラクターをより魅力的でユーザーとのインタラクティブなものにしています。
5.教育におけるAR:ARの助けを借りて複雑なトピックを教えることは、その機能の1つです。Googleは、Expeditions ARという名前の教育用ARアプリケーションをリリースしました。これは、教師がARビジュアルを使用して生徒に見せることができるように設計されています。以下のARビジュアルは、火山の噴火がどのように発生するかを示しています。
6. AR for Healthcare: ARは病院で使用され、医師や看護師が手術の計画と実行を支援します。ARのようなインタラクティブな3Dビジュアルは、2Dと比較して、これらの医師にはるかに多くの機能を提供します。したがって、ARは、複雑な操作を一度に1ステップずつ外科医に案内することができ、将来的には従来のカルテに取って代わる可能性があります。
7.非営利団体向けのAR : ARは、非営利団体が重要な問題へのより深い関与を促し、ブランドアイデンティティの構築を支援するために使用できます。たとえば、組織が地球温暖化についての認識を広めたい場合、ARインタラクティブオブジェクトを使用して人々を教育することで、その影響についてプレゼンテーションを行うことができます。
拡張現実のためのハードウェア要件
テクノロジーの基盤は、ハードウェアから始まります。上記のように、スマートフォンまたはスタンドアロンのスマートグラスでARを体験できます。これらのデバイスには、ユーザーの周囲の環境を追跡できるさまざまなセンサーが含まれています。
加速度計、ジャイロスコープ、磁力計、カメラ、光検出などのセンサーは、ARで非常に重要な役割を果たします。ARにおけるこれらのセンサーの重要性と役割を見てみましょう。
拡張現実のモーショントラッキングセンサー
- 加速度計:このセンサーは、重力のように静的な場合もあれば、振動のように動的な場合もある加速度を測定します。つまり、単位時間あたりの速度の変化を測定します。このセンサーは、ARデバイスが動きの変化を追跡するのに役立ちます。
- ジャイロスコープ:ジャイロスコープは、デバイスの角速度または方向/傾斜を測定します。そのため、ARデバイスを傾けると、傾きの量が測定され、ARCoreにフィードされて、ARオブジェクトがそれに応じて応答するようになります。
- カメラ: ARオブジェクトをオーバーレイできるユーザーの周囲の環境のライブフィードを提供します。ARcoreは、カメラ自体とは別に、機械学習、複雑な画像処理などの他のテクノロジーを使用して、高品質の画像を生成し、ARとマッピングします。
モーショントラッキングについて詳しく理解しましょう。
拡張現実でのモーショントラッキング
ARプラットフォームは、ユーザーの動きを感知する必要があります。このために、これらのプラットフォームは、同時ローカリゼーションおよびマッピング(SLAM)および同時オドメトリおよびマッピング(COM)テクノロジーを使用します。SLAMは、ロボットとスマートフォンが周囲の世界を理解して分析し、それに応じて行動するプロセスです。このプロセスでは、深度センサー、カメラ、加速度計、ジャイロスコープ、および光センサーを使用します。
コンカレントオドメトリとマッピング(COM)は複雑に聞こえるかもしれませんが、基本的に、このテクノロジーはスマートフォンが周囲の世界との関係で自分自身を宇宙に配置するのに役立ちます。特徴点と呼ばれる環境内の視覚的に異なるオブジェクトの特徴をキャプチャします。これらの特徴点は、電灯のスイッチ、テーブルの端などです。高コントラストのビジュアルは、特徴点として保存されます。
ARの位置追跡センサー
- 磁力計:このセンサーは、地球の磁場を測定するために使用されます。これにより、ARデバイスは地球の磁場に関連する単純な向きになります。このセンサーは、スマートフォンが特定の方向を見つけるのに役立ちます。これにより、物理的な向きに応じてデジタルマップを自動回転させることができます。このデバイスは、ロケーションベースのARアプリの鍵です。最も一般的に使用される磁石センサーはホールセンサーであり、これを使用して、Arduinoを使用して仮想現実環境を以前に構築しました。
- GPS: スマートフォンのように、GPS受信機にジオロケーションと時間情報を提供するグローバルナビゲーション衛星システムです。ARCore対応のスマートフォンの場合、このデバイスはロケーションベースのARアプリを有効にするのに役立ちます。
ARがリアルに感じられる理由は何ですか?
ARをリアルでインタラクティブに感じさせるために使用されるツールやテクニックはたくさんあります。
1.アセットの配置と配置: アセットは、目に見えるARオブジェクトです。ARで現実の錯覚を維持するには、デジタルオブジェクトが実際のオブジェクトと同じように動作する必要があります。これらのオブジェクトは、特定の環境の固定点に固定する必要があります。固定点は、床、テーブル、壁などの具体的なものにすることも、空中に置くこともできます。つまり、モーション中にアセットをランダムにジャンプするのではなく、事前定義されたポイントで固定する必要があります。
2.アセットのスケーリングとサイズ: ARオブジェクトはスケーリングできる必要があります。たとえば、車が近づいてくるのを見ると、小さいものから始まり、近づくにつれて大きくなります。また、横から見ると正面から見ると違って見えます。そのため、ARオブジェクトも同じように動作し、実際のオブジェクトのように感じさせます。
3. オクルージョン:画像またはオブジェクトが別のオブジェクトによってブロックされたときに発生すること-オクルージョンと呼ばれます。ですから、目の前で手を動かすと、目が手で塞がれているときに何かが見えてしまうのではないかと心配になります。また、ARオブジェクトは同じルールに従う必要があります。ARオブジェクトが他のARオブジェクトを非表示にしている場合、他のARオブジェクトを遮ることで、前にあるARオブジェクトのみが表示されます。
4.リアリズムを高めるための照明:周囲の照明に変化があった場合、ARオブジェクトはこの変化に対応する必要があります。たとえば、ドアが開閉された場合、ARオブジェクトは色、影、外観を変更する必要があります。また、ARをリアルに感じさせるには、それに応じてシャドウを移動する必要があります。
拡張現実を作成するためのツール
ARコンテンツを作成するためのいくつかのオンラインプラットフォームと専用ソフトウェアがあります。グーグルは独自のARCoreを持っているので、ARを作るために初心者に良いサポートを提供しています。それ以外に、他のいくつかのARソフトウェアについて簡単に説明します。
Polyは、ユーザーが3Dアセットを閲覧、共有、リミックスできるGoogleのオンラインライブラリです。アセットは、Tilt Brush、Blocks、またはPolyにアップロードできるファイルを生成する任意の3Dプログラムを使用して作成された3Dモデルまたはシーンです。多くのアセットはCCBYライセンスの下でライセンスされています。つまり、開発者は、作成者にクレジットが付与されている限り、アプリでそれらを無料で使用できます。
Tilt Brushを使用すると、バーチャルリアリティを使用して3D空間でペイントできます。立体的なブラシストローク、星、光、さらには火であなたの創造性を解き放ちます。あなたの部屋はあなたの帆布です。あなたのパレットはあなたの想像力です。可能性は無限大。
ブロックは、モデリングの経験に関係なく、仮想現実で3Dオブジェクトを作成するのに役立ちます。6つのシンプルなツールを使用して、アプリケーションに命を吹き込むことができます。
Unityは、Unity Technologiesによって開発されたクロスプラットフォームのゲームエンジンであり、主に3次元と2次元の両方のビデオゲームと、コンピューター、コンソール、およびモバイルデバイスのシミュレーションを開発するために使用されます。Unityは、VRおよびARコンテンツを作成するための人気のあるゲームエンジンになりました。
Sceneformは、物理ベースのレンダラーを備えた3Dフレームワークであり、モバイル向けに最適化されており、Java開発者が拡張現実を簡単に構築できるようにします。
ARとVRで使用される重要な用語
- アンカー: ARオブジェクトが配置されるユーザー定義の興味のあるポイントです。アンカーは、ジオメトリ(平面、点など)に関連して作成および更新されます。
- アセット: 3Dモデルを指します。
- 設計ドキュメント:チームが実装するためのすべての3Dアセット、サウンド、およびその他の設計アイデアを含むARエクスペリエンスのガイド。
- 環境の理解:特徴点と平面を検出し、それらを参照点として使用して環境をマッピングすることにより、実際の環境を理解します。コンテキストアウェアネスとも呼ばれます。
- 機能ポイント:これらは、椅子の端、壁の電灯のスイッチ、敷物の角など、環境内で視覚的に区別できる機能であり、目に見えて環境内に一貫して配置されている可能性があります。
- ヒットテスト:電話の画面に対応する(x、y)座標を取得し(タップまたはアプリでサポートするその他のインタラクションによって提供されます)、カメラの世界観に光線を投影するために使用されます。これにより、ユーザーは環境内のオブジェクトを選択したり、オブジェクトを操作したりできます。
- イマージョン:デジタルオブジェクトが現実の世界に属しているという感覚。没入感を壊すことは、リアリズムの感覚が壊れたことを意味します。ARでは、これは通常、オブジェクトが私たちの期待に合わない方法で動作することによるものです。
- インサイドアウトトラッキング:デバイスにモーションを検出して位置を追跡するためのカメラとセンサーが内蔵されている場合。
- アウトサイドイントラッキング:デバイスが外部カメラまたはセンサーを使用して動きを検出し、位置を追跡する場合。
- 平面検索:ARCoreが環境内の水平面と垂直面の位置を特定し、それらの面を使用してデジタルオブジェクトを配置および方向付ける、スマートフォン固有のプロセス
- レイキャスティング:現実世界の表面に信頼できる方法で表示するためにARオブジェクトを配置する場所を推定するのに役立つ光線を投影します。ヒットテスト中に使用されます。
- ユーザーエクスペリエンス(UX):エンドユーザーにとって高いユーザビリティとアクセシビリティを備えた製品を作成するためにユーザーフローを強化するプロセスと基盤となるフレームワーク。
- ユーザーインターフェース(UI):アプリのビジュアルとユーザーが操作するすべてのもの。