ReadWrite Japan

MTM2OTY2OTA1OTY0NTM3NDQx

Metaから見えてくるVRの舞台裏 ~"Meta2開発キット"を開始

2016.3.29 12:42 | ReadWrite Japan編集部(原文

「Metaはこれまでにない没入的なエクスペリエンスを提供するMeta2開発キットの注文受付を開始した」

これは報道ではよく見かけるような宣伝の煽り文句のようではあるが、実際にこの製品を試した一人として言わせてもらうと、彼らの言い分はずいぶん控えめだと思える。だがその非常にパワフルなハード以上に興味をそそられるのは、
その製品、そしてAR自体がどこに向かおうとしているのかという事についてのアイデアだ。そこでMetaの製品部門チーフ Soren Harnerに、同社のVRの取り組みの舞台裏について聞いてみた。

Metaの取り組みについて教えてください。

我々はハード会社であり、ソフト会社でもありますが、
その究極の目的とはユーザーエクスペリエンスを見つめ直し、
それをより人間に近いところに持ってくる事です。
神経科学の事を言い出すと安っぽく聞こえるかもしれませんが、
おそらく皆さん、数年前からスクリーンが問題なのだと思い始めたのではないでしょうか。
一度に多くを表示できず、携帯性にも優れていない。
そこで人々はヘッドマウントディスプレイに目を向け出しました。
VRおよびARはそこから伸びてきています。
そして我々は次のステップとして、感覚および神経系の統合に
乗り出しました。

ユーザーインターフェイスの構築にあたって、我々の設立者が言うところの
「神経的に一番抵抗が少ない経路」というものに着目します。
我々が求めるものは、自分の親の世代でもカスタマーサービスを必要としない、
直感的に理解できるシステムです。
それに対する我々の方法とは、デジタルコンテンツ、
ホログラムでもいいかもしれませんが、それを物理的な
世界に持ち出す事です。

Metaで働こうと思う契機となったデモの事について教えてください。

そうですね、まずデモ機からはワイヤが飛び出ていて、
装着したときに鼻が傷つきましたし、メガネも調節しないとダメでしたが、
そこで見たものとは眼前の3Dオブジェクトの向こうに実物の人が
立っているというもので、私は次の大きな潮流はコレだと感じました。

MTM2OTY2OTA4OTE3MzI3NDU1

その事がエクスペリエンスを推し進めるのにどう役立ちました?

人々はAR、そしてその上に成り立つデジタルコンテンツについて語りますが、
それでは十分ではないのです。あたかもそこにあるかの様に物理的なオブジェクトとして
振る舞う事によって十分だと言えるのです。
あなたが製作者側だったとしたら、作るものがリアルだと感じさせるために
どんな苦労が伴うかは分かるでしょう。
そしてそれにリアルな感覚を持って触れられる事で、
本当にそれがそこにあるのだという感覚を得られるのです。

それがそこにあるという事を成り立たせるためのオーディオ群も
あります。例え触覚が伴わなくとも、それを"感じる"事は出来るのです。
これはデバイスとのコラボレーションによって可能になると我々は見ており、
コンテンツを根付かせることが出来れば、素晴らしいコミュニケーションが
出来るようになると考えています。Meta2が提供する視界は非常に
透過的なもので、そこでお互いにアイコンタクトを取ることも出来るのです。
あたかもそこにいるかのような視界を実現するために、
より高精細でありながらシースルーなアプローチをとりました。
ですのでデバイス越しにテキストを読むことも出来ます。

これはどういった層の人を考えてるのですか? またこれのキラーアプリとは?

これはうちの第二世代のデバイスになります。一代目はいわば
「とりあえず作れば誰かが興味を持つだろう」といった類のもので、
実際にそうなりました。1万4千台つくって全て売り切りました。
それをつかって人々はいろんなことを構築しました。
メジャーな宇宙関連の会社からただの物好きに至るまで
いろんな人に買ってもらい、その中にはゲームを作り出したり、
あるいは更に実際の問題解決の為に役立てる人たちも出てきました。

そういった中、最も驚かされた開発例とはどういうものがありますか?

オランダで顎の手術に活用された一例があります。
驚きでしたし、恐ろしくもありました。
我々が旗振りをしたわけではないのですが、興味深い活用例を
幾つも見ることが出来ました。そして次のバージョンでは
より広い視界を確保する必要があると気付かされました。
私達のものはMicrosoftのHoloLensみたいなものでしたが、
利用者たちはそのエクスペリエンスをリアルと感じることが出来ませんでした。
というのも視界から見切れてしまうからです。
ところがこの視界が90度まで広がれば話は変わってきます。
物を表示できる幅が大きく変わってくるからです。

というわけで目先の問題は解決されましたが、新たな問題が
上がってきます。手で物を触ることです。
神経科学以前に、まず人がどの様に手を伸ばしものをつかむのか、
あたかも自分はその時どの様に感じるのかを考えました。
ジェスチャーでものをつかむ事はできないので、空中をタップしたり
サムアップになど、ユーザーがインタラクションできる方法を探しました。
我々が作り上げた第二世代のハンドインタラクションになります。
これら2つの機能は大きな売りです。合わせて使う事です
お互いで空間をシェアする事が可能になります。

これまであなたが言われた例は現実を再現するようなものになりますが、
この環境でないとできない事というのはあるのでしょうか?

そうですね、2つの場所に一度に存在することが出来るという事が
挙げられます。遠隔地に居る人をバーチャルな椅子に座らせて
ドキュメントを共有するということはARでのみ可能なことでしょう。

我々はこれを映画にちなんで"Kingsman効果"と読んでいます。
それぞれが別の場所にいてもバーチャルで同じ卓を囲み
皆が同じコンテンツを共有するという事です。

モノのインターネットの観点からすれば、これは視覚的なインターフェイスとして
凄いものではないでしょうか。

まずセンサーは我々に強大な力を与えてくれます。
カメラやサーモスタットなどのIoTセンサーによって感覚的に
つながることが出来るのであれば、個人がそれぞれ別のスクリーンを
持つ必要などどこにあるのでしょうか? スクリーンを売ることで
収入を得ている業者ならともかく、エクスペリエンスとしてこれは
最適とは言えません。スクリーンを装着し、あたかもそこにいるかのように
何かを掴み、ディスプレイに投影できるということは非常なポテンシャルを持っています。

IoTに関して言えばOSの開発も考えています。
ユーザが現実世界に根ざし、フィードバックループの中心となるというのが、
ARについての我々の基本的な考え方です。

よりリッチなタイプの情報へのアクセスについても考えており、
これについて言うと情報の収集はマシンラーニングの様な
プロセスになると思っています。情報のフィルタリング及び、
その時に適切な情報とはなにかを予測する事が最も大事になると思います。

携帯に20以上のアプリが入っていることが普通になっているということは、
アプリモデル自体が既に成り立っていないということです。
スクリーンという束縛が無くなりこの世のあらゆるものがユーザインターフェイスとして
機能する世界では、その時に適切な情報がユーザの注目を引くようになります。
これはアプリのモデルではなしえないことです。

センサーの存在によってこの事はより顕著なものになることでしょう。
ARによってユーザはアプリを介さずにその場にふさわしい情報に
着目出来るようになります。これは自然なインタラクションであり、
皆が選択している道です。
Meta2およびそのSDKで創りだそうとしているのは、まさにこういった事です。

この記事を読んだあなたにおすすめの記事

この記事を読んだあなたに
おすすめの記事