Перейти до вмісту

Основи віртуальної реальності

    1647260403

    Всього кілька років тому практична віртуальна реальність була обмежена рамками дорогої академічної лабораторії або секретної військової споруди. Але з відкриттям, що дешеві мобільні панелі можна перепрофілювати для високоякісної віртуальної реальності, прийшов шквал дисплеїв на голові (HMD), розкладачок і контролерів для смартфонів.

    До того, як один продукт віртуальної реальності з’явився на полицях магазинів, споживачі та розробники контенту були побиті інноваціями, специфікаціями, претензіями та, можливо, відьомами. Завдяки безлічі анонсів на конференції розробників ігор і, нещодавно, на E3 Expo, ситуація стала ще більш заплутаною.

    Ми збираємося розібратися з усіма для вас, скориставшись коротким підсумком того, що є і як це все пов’язано. Ми визначимо деякі терміни та відокремимо невеликий факт від вигадки. І, зрештою, сподіваюся, ви матимете краще уявлення про те, як порівняти всі ці пропозиції, коли вони стануть, якщо запозичити фразу, буквальною реальністю.

    Присутність

    Це те, до чого всі прагнуть: щоб бути дійсно впевненим, що ви перебуваєте в оточенні, яке вам представлено. Мова не йде про реальне зображення (фотореалізм). Швидше, мова йде про той момент, коли ви стоїте на віртуальному виступі, і поки ваш розум каже: «Це нормально зробити крок вперед», ваше тіло має зовсім іншу реакцію.

    Поле зору (FOV)

    Мабуть, найбільшим проривом у споживчому VR стало поле зору (FOV) або фактична область видимості. У середньому ми можемо бачити близько 170 градусів FOV природним чином. До Oculus Rift Kickstarter більшість HMD споживчого класу, як-от Vuzix VR920 і Sony HMZ-T1, мали кут огляду від 32 до 45 градусів. Ці фрагменти регулярно рекламували як такі, що змушують вас думати, що ви перебуваєте в кінотеатрі з великим екраном перед вами, але це ніколи не виходило так.

    На відміну від цього, сучасні прототипи HMD для споживачів відображають кут від 90 до 120 градусів. Хоча це не повні 170 градусів, які ми можемо бачити, природно, 100+ градусів FOV є достатньо, щоб зробити те, що ми відчуваємо у VR, переконливим, як продемонстровано такими продуктами, як Sony Project Morpheus та очікуваним випуском Oculus (CV1).

    Затримка

    Затримка означає затримку між тим, коли ви рухаєте головою, і коли ви бачите фізичні оновлення на екрані. Річард Хадді, головний науковець з ігор AMD, каже, що для інтерактивних ігор необхідна затримка в 11 мілісекунд або менше, хоча іноді переміщення у 360-градусному фільмі VR допустимо за 20 мс. Документація та інтерв’ю Nvidia сприяють 20 мс, хоча це не є ознакою її апаратних можливостей; це лише орієнтир.

    Відстеження голови

    Існує дві категорії відстеження голови.

    Відстеження голови на основі орієнтації є найпростішою формою, і вона виявляє лише прямі повороти вашої голови: ліворуч направо, вгору вниз і крен, схожий на обертання годинника. Наразі це єдина форма відстеження голови, доступна для мобільних продуктів, таких як Samsung Gear VR, ImmersiON-VRelia GO HMD, Google Cardboard та більшості, якщо не всіх, мобільних пристроїв віртуальної реальності, що залишилися. Цей тип відстеження голови також використовувався в Oculus Rift DK1.

    Інша форма відстеження голови, яка називається позиційним відстеженням, включає обертання вашої голови, а також рухи та пов’язані з ними переклади вашого тіла. Він відстежує не ваші кінцівки, а скоріше HMD, оскільки він розташований відносно вашого тіла — наприклад, якщо ви коливаєтеся з боку в бік або стаєте на коліна вперед.

    Відстеження позиції досягається кількома способами:

    Oculus Rift DK2 і Crescent Bay — а тепер і CV1 — використовують інфрачервону камеру в поєднанні з магнітометрами та гіроскопами. Камера вловлює відбивачі на HMD і екстраполює дані про позицію від того, як вони розташовані. Oculus називає свою систему відстеження Constellation.
    Компанія Sixense розробила експериментальне доповнення для Samsung Gear VR, яке використовує магнітні поля для визначення розташування об’єкта, і, отже, вдалося розробити спеціальне відстеження позицій для пристрою, у якому його не було.
    Vrvana Totem PrototypeVrvana використовує пару камер і відстежує маркери або структури в кімнаті як основу для визначення фізичного розташування HMD. Хоча відстеження все ще потребує роботи, ми побачили на E3 прототип, який базується на подвійних камерах і також працює в середовищі без маркерів.
    Vive HMD від HTC/Valve використовує технологію «Lighthouse» (докладніше про це пізніше).

    Є й інші варіанти, але це лише кілька популярних прикладів.

    Резолюція

    Обережно! Рекламоване рішення містить більше, ніж здається на перший погляд (зрозуміли?). Сьогодні на ринку просуваються два типи HMD. Найпопулярніший тип має одну РК-панель, роздільна здатність якої поділена навпіл, прямо посередині.

    Таким чином, роздільна здатність Sony PlayStation VR (PSVR), яка рекламується як 1920×1080, насправді становить 960×1080 пікселів на око. Oculus Rift DK1 (1280×800 або 640×800 на око) і DK2 (1920×1080 або 960×1080 на око) працюють за тими ж принципами.

    Інші системи, як-от ImmersiON-VRelia, працюють над підвищенням роздільної здатності, використовуючи дві РК-панелі замість однієї. Отже, панель 1080p насправді становить 1920×1080 на око. Роздільна здатність Oculus CV1 становить 2160×1200 або 1080×1200 на панель.

    Вхідні дані

    З огляду на всю увагу на дисплеї VR, параметрів введення напрочуд бракувало до GDC і, пізніше, E3. Коли ми говоримо «вхід», ми насправді маємо на увазі контролери, розроблені спеціально для віртуальної реальності та взаємодії.

    Так само, як Sixense додав позиційне відстеження до Samsung Gear VR за допомогою магнітних полів, бездротові контролери STEM компанії також засновані на магнітних полях. Це старовинна технологія, яка використовувалася у VR CAVE в минулі десятиліття. CAVE (автоматичне віртуальне середовище печери) — це в основному кімната віртуальної реальності, заснована на проекції або, у рідкісних випадках, на великих панелях дисплея. Мінімальна ПЕЧЕРА вважається двома стінами та підлогою, але може бути настільки ж просунутою, як шість навколишніх стін у великому масштабі. Вони найчастіше використовуються для моделювання та досліджень.

    Найпершими формами взаємодії в CAVE у віртуальній реальності були пристрої та контролери з магнітним виявленням жестів. Проблема полягає в тому, що CAVE зазвичай ґрунтуються на великій металевій рамі, і, подібно до відрази Супермена до криптоніту, магнітні поля погано реагують на метал, тому в кінцевому підсумку CAVE зосередилися на відстеженні оптичної камери.

    За словами Аміра Рубіна, генерального директора Sixense, нові STEM-контролери компанії подолали проблеми, пов’язані з магнітними полями, які взаємодіють з металевими каркасами. За допомогою інерційного вимірювального блоку (IMU), вставленого в кожен компонент STEM, Sixense корелює дані між магнітним полем і IMU для підтримки постійної точності. У всіх підготовлених демонстраціях, які ми бачили, технологія працювала добре.

    Невідомо, чи це остаточний напрямок, але Oculus VR пропонує контролери Oculus Touch або напівмісяці. Вони являють собою щось середнє між інфрачервоним відстеженням Oculus, яке вже включено в його CV1 і Crescent Bay, і контролерами, призначеними для визначення того, як власник схоплює і жестикулює. На відміну від технологій на основі рукавичок, які намагаються визначити точне розташування пальців і захоплення користувача, вони імітують подібний досвід, виявляючи статус увімкнення різних кнопок і ємнісних датчиків, оскільки вони стосуються способу утримання пристроїв. Хоча спочатку я боровся з цим, іншим користувачам було легше вчитися, і це, безумовно, набагато кращий варіант для VR, ніж стандартний контролер Xbox сам по собі.

    HTC і Valve пішли шляхом лазерного променя з Vive HMD і контролерами. За допомогою технології, яка отримала назву «Маяк», ви встановлюєте дві базові станції, що випромінюють лазер, на стелі, на протилежних кінцях кімнати. HMD і контролери покриті датчиками вузликів.

    Датчики вузликів стратегічно розміщені вздовж форми HMD або пристрою — або того, що потрібно відстежувати. Коли лазери спалахують на цих датчиках, система маяка обчислює, де і як пристрій розташований відносно базових станцій на основі часу спалахів лазера. Ці знання про те, як розташовані вузлики, у поєднанні з визначенням їх розташування, коли на них спалахують лазери, надають інформацію, необхідну для миттєвого відстеження позиційної головки та керування введенням.

    Щоб «Ходячі мерці» у VR працювали на E3, експериментальний прототип StarVR HMD від Starbreeze Studios базується на двох панелях дисплея 2,5K, лінзах Френеля та величезному полі зору 210 градусів. Відстеження компанії стає можливим завдяки впізнаваним шаблонам, які називаються фідуціарними маркерами, які наклеюються на HMD та будь-які об’єкти, які потребують відстеження. Зовнішня камера визначає розміщення цих маркерів і екстраполює HMD і позиціонування об’єкта.

    Еммануель Маркес, технологічний директор Starbreeze Studios, сказав, що компанія хоче, щоб її роздільна здатність HMD становила 8K, і він очікує, що це стане можливим протягом наступних п’яти років.

    Розширений прототип ANTVR працює зовсім по-іншому. У цьому випадку підлога всіяна світловідбиваючим матеріалом, а вбудована камера HMD, спрямована вниз, використовує килимок як орієнтир для відстеження положення.

    Платформа Sony Move складається з камери PlayStation Eye і портативного контролера Move. Контролер має кулю, яка динамічно змінює колір. Ця зміна кольору необхідна для того, щоб він виділявся на фоні кольорів кімнати, щоб камера могла легко відстежувати це. Контролер Move також оснащений акселерометром і датчиком швидкості, який визначає обертання контролера. Усі ці елементи разом створюють контролер із супер-пупер точністю.

    Однак справжня перемога полягає в тому, що, хоча ця технологія PlayStation Move спочатку була розроблена як метод для веселої взаємодії з відеоіграми, її також легко було перепрофільовано як основну технологію відстеження голови для PSVR від Sony, оскільки вона відповідала всім критеріям низької затримки та позиційне стеження за головою.

    Однак не все залежить від того, що ви тримаєте в руках. Є контролери жестів рук, які також вловлюють кожен нюанс ваших пальців.

    Leap Motion розміром з невелику плитку шоколаду має дві камери з трьома інфрачервоними світлодіодами. Камери бачать, що відбивається від інфрачервоного світла, і за допомогою програмного забезпечення створюють карти того, що знаходиться в їх полі зору. Останнє програмне забезпечення Leap Motion навіть включає методи компенсації відстеження скелета кисті, коли одна рука прикриває іншу.

    Leap Motion відстежує рух приблизно в двох футах перед пристроєм, і Razer використовує його як офіційне доповнення до своєї платформи OSVR для відстеження рук за допомогою HMD компанії.

    FOVE, компанія, назва якої походить від слова «fovea» (частина ока, яка дозволяє йому фокусуватися), розробляє HMD, який має функцію стеження за очима, і провела демонстрації, де розташування ваших очей контролює інтерфейс. Технологія також може регулювати зовнішній вигляд глибини різкості відповідно до того, що ви дивитеся.

    Як згадувалося раніше, величезною проблемою для віртуальної реальності є наявність достатньої обчислювальної потужності, щоб забезпечити необхідну частоту кадрів і наднизьку затримку. Хоча для присутності необхідне високе поле зору, воно не потрібне для бездоганної роздільної здатності всього зображення, тому що люди не бачать дрібні деталі свого периферійного зору. Відстеження очей відкриває двері для «фотообразного рендеринга», при якому основна частина графічної потужності витрачається на частину екрана, де ви зосереджені, і набагато менше потрібно для периферії, яку ви все одно не можете ефективно побачити. Таким чином, відстеження очей відкриває двері до ефективного способу відтворення саме тієї графіки, яка вам потрібна.

    Як повідомляє Meant to be Seen на E3 2015, FOVE може зробити доступним візуалізацію у вигляді фотів до моменту випуску комплектів для розробників HMD. Компанія також побудувала відносини з Valve як кандидатом на відстеження Lighthouse. (Valve ліцензує свою технологію відстеження кваліфікованим третім сторонам і пристроям.)

    Варто згадати ще один варіант: Sulon Technologies розробляє дисплей змішаної/доповненої реальності, який встановлюється на голову. Насправді це відповідає тому, як вважають Magic Leap і HoloLens від Microsoft, а маркетингові відео компанії настільки ж вражаючі. Тим не менш, це кінцевий результат, який усіх хвилює найбільше.

    На головному дисплеї Sulon Cortex є пара камер, які знімають кімнату. Комп’ютер або смартфон пристрою додає цифровий шар на основі того, що ви бачите і як ви взаємодієте з тим, що бачите. Результатом є досвід доповненої реальності, який поєднує реальний і цифровий світ навколо вас.

    Кожна версія, яку ми бачили, безумовно, була технологією на ранній стадії порівняно з маркетинговими відео, але такі компанії, як Sulon Technologies, рухаються в правильному напрямку. Ви можете прочитати більше про наш досвід використання Sulon Cortex тут.

    Локомоція

    Величезною проблемою для досягнення присутності є можливість відчути повний спектр переконливих фізичних рухів. Якщо ваше тіло і розум розмовляють різними мовами, ілюзія ніби зламана. HTC/Valve стверджує, що Vive працюватиме на просторі розміром від 15 квадратних футів (1,4 квадратних метра), а демонстрації Oculus CV1 продемонстрували приблизно третину цього.

    Virtuix Omni і Cyberith Virtualizer – це два варіанти, які дебютували на Kickstarter. Принципи ті самі. Ви стоїте на слизькій платформі, а ваші ноги відстежує камера (Cyberith Virtualizer) або датчики, імплантовані в спеціально зношені кросівки (у випадку з Virtuix Omni). Жоден із прикладів не є природним, але обидві технології працюють, як тільки ви опануєте їх.

    Інший варіант – мати відкритий простір і обійтися ним. Якщо ви носите дисплей, встановлений на голові, на досить великій площі, те, що ви бачите, може змусити вас безпечно ходити по колу, і ви можете навіть не усвідомлювати цього. Наприклад, HTC/Valve Vive призначений для підтримки простору 15×15 дюймів. Пристрій може знати, де знаходяться межі кімнати, відстежувати, де ви фізично перебуваєте, і придумувати блокпости, перш ніж ви зіткнетеся з цими краями.

    У випадку з Sulon Cortex кімната була фізично сканована заздалегідь, тому цифрова стіна була відкалібрована так, щоб вона існувала в тому ж просторі, що й фізична стіна. Поки на підлозі немає розкиданих предметів, ми дійсно можемо мати безпечне середовище VR, навіть якщо ми не бачимо фізичного світу навколо нас.

    Ось кілька химерних, але важливих виразів, які люди постійно говорять без пояснень.

    Низька стійкість

    Коли Oculus Rift DK1 був представлений на ринку, відразу стало очевидно, що існуючі мобільні дисплеї мають проблему, пов’язану з VR: розмиття в русі. DK1 заснований на «постійному» дисплеї, що означає, що зображення завжди увімкнене. В результаті зображення стає дуже брудним, коли ви рухаєте головою, тому що ви бачите дані з попереднього кадру, який більше не відображає орієнтацію вашої голови. Ця невідповідність може призвести до слідів зображення.

    Новітні OLED-панелі мають вищу частоту оновлення, але цього недостатньо, щоб вирішити проблему. Дисплеї з низькою стійкістю працюють, показуючи правильно розміщений кадр, негайно вимикаючи, а потім показуючи інший кадр, як тільки він буде готовий. З Oculus Rift DK2 і вище, Sony PSVR, HTC Vive та іншими рішеннями розмиття в русі зникло, оскільки попереднє зображення повністю очищено.

    Компромісом цієї технології є те, що їй потрібно мінімум 75 кадрів в секунду, щоб підтримувати частоту оновлення панелі 75 Гц (або вище, залежно від частоти оновлення). Якщо контент не може досягти цього, технологія не працюватиме належним чином. На щастя, є рішення.

    Асинхронна деформація часу

    Ми знаємо, що якщо дисплей з низькою стійкістю працює на частоті 75 Гц, він повинен досягти 75 FPS. Проблема в тому, що 75 FPS при високій роздільній здатності важко підтримувати, враховуючи, що сучасні відеокарти часто намагаються досягти скромних 60 FPS. Якщо врахувати вимогу щодо лівого та правого перегляду для підтримки стереоскопічного 3D, стане зрозуміло, як ці демонстраційні демонстрації з інтенсивною графікою нагрівають підлоги виставкових залів серед зими.

    Асинхронне викривлення часу (ATW) — це техніка для досягнення балансу між тим, що може відображати ваш графічний процесор, і тим, що ваш дисплей має відображати, шляхом вставки проміжних кадрів у ситуаціях, коли гра чи програма не можуть підтримувати частоту кадрів. «Перекос» — це фактичний процес налаштування. Timewarp сам по собі деформує або коригує зображення перед відправкою на дисплей, виправляючи рух голови, який відбувся відразу після створення сцени в потоці візуалізації. Це ефект постобробки, оскільки він зміщує завершене зображення для врахування останнього положення голови користувача.

    Обмеженням викривлення часу є те, що воно залежить від послідовних кадрів, які подаються з відеокарти, оскільки коригування відбувається після завершення візуалізації. Якщо комп’ютер відволікається на інше завдання і вагається, інформація, показана на HMD, занадто застаріла і спричинить дискомфорт.

    Asynchronous Timewarp працює для вирішення цієї проблеми, постійно відстежуючи останнє розташування головки в окремому потоці обробки, який не залежить від циклу візуалізації графічної карти. Перед кожною вертикальною синхронізацією асинхронний потік вносить свою актуальну інформацію в останній кадр, завершений потоком візуалізації. Виконання цього способу повинно мати ще меншу затримку та покращену точність у порівнянні з Timewarp.

    На жаль, немає нічого ідеального. Незважаючи на те, що ATW допомагає компенсувати недостатню продуктивність відеокарти, вона схильна до «дрижання» або невеликого подвоєння зображення, як показано вище.

    Є додаткові методики, і, ймовірно, їх буде більше, але це основні, про які ми чуємо найчастіше.

    Поки ми чекаємо офіційних стандартів через DirectX і OpenGL, AMD і Nvidia розробили запатентовані пакети SDK і методи як тимчасовий захід для покращення взаємодії за допомогою своїх графічних карт. Мета полягає в тому, щоб зменшити затримку та збільшити частоту кадрів для цілей VR.

    Рідкий VR

    За словами Річарда Хадді, головного вченого з ігор AMD, Liquid VR — це окремий фрагмент коду і працює на платформі Mantle. За його словами, Mantle — це запатентований API AMD, який забезпечує більш глибокий і швидший доступ до архітектури компанії в порівнянні зі стандартним маршрутом DirectX 11.

    Mantle і Liquid VR забезпечують повний доступ до функцій асинхронного обчислювального механізму (ACE) AMD. Блок обробки потоку GPU — це слот для обробки однієї команди. У старих графічних процесорах ці команди оброблялися послідовно. Хоча Radeon HD 7970 має 2048 шейдерів, навіть коли графічний процесор зайнятий, рідко всі вони використовуються повністю. Архітектура ACE дає можливість одночасно перемежовувати різні команди та заповнювати ці прогалини. Коли доступні невикористані слоти блоку обробки потоків, команди передаються за потреби. Графічний процесор може справді справлятися з обчислювальними завданнями, навіть коли він заважає графічній роботі, не витрачаючи при цьому дорогоцінний час обробки.

    З налаштуваннями CrossFire (багато GPU) кожна відеокарта буде чергувати кадри. Це погано працює, коли зображення розділено між дисплеями в VR HMD. Liquid VR може ефективно розподілити обов’язки кожної карти — один GPU для лівого ока і один для правого.

    API AMD також дає змогу спілкуватися безпосередньо з HMD без необхідності в окремому SDK, як-от Oculus VR або платформа OSVR Razer. Незважаючи на те, що AMD демонструє підтримку Oculus VR з Liquid VR, вона не є патентованою (для апаратного забезпечення, підключеного до графічних процесорів AMD), і компанія має намір підтримувати всі кваліфіковані рішення.

    Незважаючи на те, що деякі дисплеї, які демонструвалися на GDC, тихо використовували графічні процесори AMD серії 300, AMD вважає, що її швидші карти попереднього покоління також здатні запускати сучасний VR-контент, ймовірно тому, що новіші плати є значною мірою перебрендованими версіями того, що було раніше. .

    Nvidia GameWorks VR

    Nvidia GameWorks VR — це не стільки формальний API, скільки ряд методів і функцій, які допомагають розробникам отримати максимум від своїх графічних процесорів для цілей VR. Наприклад, раніше ми говорили про Asynchronous Timewarp. У світі Nvidia GameWorks Asynchronous Timewarp доступний на рівні драйвера. Подібно до платформи AMD Liquid VR, Nvidia також представляє SLI VR, що означає, що комп’ютери з декількома відеокартами будуть краще обладнані для одночасного відтворення лівого та правого переглядів, що дозволить отримати найефективніший досвід VR.

    Але найцікавішою є технологія затінення компанії з багатьма роздільною здатністю. Сучасні HMD, такі як Oculus Rift і HTC Vive, вимагають еліптичного подвійного перегляду, який надсилається на їхній дисплей. Хоча зображення на моніторі комп’ютера виглядають дивними неозброєним оком, вони мають належну форму через лінзи HMD. Центр лівого та правого зображень щільний, і пікселі стають набагато більш епізодичними та поширюються, коли зображення деформується назовні.

    До цих пір це спотворення пікселів застосовувалося постфактум. Відеокарти створювали зображення з повною роздільною здатністю з усією доступною обробною потужністю, а деформація була оброблена на етапі постобробки. Це марнотратно, оскільки панелі дисплея можуть працювати майже так само добре зі значно меншою кількістю пікселів.

    Рішення Nvidia полягає в тому, щоб розділити зображення на сітку вікон перегляду 3×3. Для наших цілей уявіть області перегляду як сегменти екранного простору. У той час як центральне вікно перегляду залишається з повною або майже повною роздільною здатністю, навколишні вікна перегляду відображаються подібним чином до традиційної деформації, яка використовувалася під час постобробки. Коли все сказано й зроблено, якість зображення, що сприймається користувачем, приблизно однакова: створюється на 25-50 відсотків менше пікселів і збільшується швидкість малювання пікселів у 1,3-2 рази більше, ніж зазвичай. Використовуючи Oculus CV1 як приклад, мультишейдерний рендеринг для його дисплеїв 2160X1200 потребуватиме на 30-50 відсотків менше кінських сил для ефективної роботи.

    Nvidia також просуває концепцію, яка називається контекстом високого пріоритету. Під час візуалізації за допомогою традиційного DirectX розробники мають фіксований процес переходу з точки A в точку B. Nvidia розширює шлях до шляху візуалізації, тому, оскільки непередбачувані зміни виникають через такі речі, як відстеження голови, розробник зможе їх значно виправити. швидше.

    Хоча як AMD, так і Nvidia мають потужні пропозиції, ключовим є те, що жодна з них не є формальним стандартом. Це означає, що розробникам ігор і контенту доведеться підтримувати два власних шляхи розробки, щоб отримати максимальні переваги продуктивності від кожної архітектури.

    Висновок

    Займаючись цією індустрією практично з моменту її сучасного заснування, я можу сказати, що це справді дивовижно. До того, як був випущений єдиний споживчий продукт, ми вже бачили спеціальні інновації в ядрі того, як ми отримуємо графіку на наших дисплеях VR, і ми бачимо дисплеї, які встановлюються на голові, які мають широкий спектр специфікацій та основних технологій. З’являються навіть абсолютно нові експериментальні ідеї, в тому числі та, яку (на жаль, невдало) доставили в космос.

    Але ми повинні нагадати собі, що ця гонка не має фінішу. На відміну від традиційної індустрії дисплеїв, яка має обмежену криву навчання, кожне доповнення може кардинально змінити наше розуміння віртуальної реальності та інших форм імерсивних технологій. За словами Саймона Бенсона, директора Immersive Technology Group Sony Computer Entertainment Worldwide Studios, лише збільшення FOV на п’ять градусів змінює все. У цьому випадку він навів приклад, коли водії гоночних автомобілів стикалися з більшою кількістю аварій, оскільки їх оновлений дизайн автомобіля дозволяв ширше бачити дорогу і ненавмисно порушив їхню увагу.

    Особисто побачивши Oculus CV1, HTC Vice від Valve, FOVE, Starbreeze VR, платформу GO Immersion-VRelia та незліченну кількість інших продуктів, це обіцяє бути різноманітною галуззю, а найкраще ще попереду. До тих пір, поки платформи не обмежуються одним брендом або API не можуть бути агностичними, у цьому просторі будуть лише переможці як для споживачів, так і для постачальників.

    [Оновлення: цю статтю було оновлено 10/12/2015, щоб виправити помилку в роздільній здатності, яку ми надали для Oculus CV1, та інші більш незначні зміни, такі як посилання на Sony PSVR (а не Morpheus), модифікацію назви для цитованого експерта, а також деякі невеликі роз’яснення щодо того, як працює технологія HTC/Valve Vive Lighthouse.]

    Ніль Шнайдер є асоційованим автором для Tom’s Hardware.

    Слідкуйте за програмою Tom’s Hardware у Twitter, Facebook та Google+.

    0 0 голосів
    Rating post
    Підписатися
    Сповістити про
    guest
    0 comments
    Вбудовані Відгуки
    Переглянути всі коментарі
    0
    Ми любимо ваші думки, будь ласка, прокоментуйте.x