Keresés

Új hozzászólás Aktív témák

  • izomman1

    senior tag

    válasz izomman1 #3740 üzenetére

    Illetve egy fél perces videót mutattak be a készülő új Oculus üdvöskéről..

    http://player.hu/tech-3/oculus-virtualis-valosag-szemuveg/

    Mi értelme, ha teljes szabad mozgást biztosít a kábeles CV1? Vagy mégse? Jó jó ott a kábel lehet mondani meg a drága gép nem szükséges… de ez a megoldás nem nehéz belátni, hogy gyakorlatilag egy mobiltelefon erőforrás színvonal nem pedig egy asztali gépé..
    4K VR headset et várom már amit majd tök mindegy ki adja ki (room scale követés mellett ) Felőlem az Oculus is kiadhatná a következő generációt, de tényleg ez lenne az új üdvöskéjük? Ha 4k lenne biztos eldicsekedtek volna vele..

  • Menthirist

    veterán

    válasz izomman1 #3740 üzenetére

    Csak annyira kell hozzá a 4 kamera, mint amennyire a vive-hoz. Egész egyszerűen 2 kamerával/lightouse szenzorral mondjuk 95%-os megbízhatóság érhető el, 3-mal 99, 4-el 99.9. De a belső rendszerek áthidalhatják azokat a pillanatokat amikor nincs közvetlen rálátás. Fent linkeltem képeket arról, hogy 2 szemben álló kamerával mi lehet a problémás terület. 3-al még kisebb. Teljesen nem kizárható, hisz pl ráfeküdhetsz a kontrollerre vagy két ember összezárhat úgy, hogy eltakarják a szenzorokat. 2 szenzorral egy 2x2 vagy egy 3x3 méteres szoba túlnyomórészt lefedhető. Tehát még mindig ott tartunk hogy 599 dollár a rift 199-ért pedig kapod hozzá a touch-ot és még egy kamerát. Ott van mint a vive 2 lighthouse-al és a kézi kontrollerekkel, csak a riftnél több usb kell hozzá, mert a kamerákat rá kell kötni a gépre, míg vive esetében nem.

    "usb szenzorai"? Mit értesz ez alatt? Vive esetén a lighthouse szenzorok teljesen dummy-k, csak szórják a fényt, de semmi számítást nem kell velük végeztetni. A lézernyalábok beérkeznek a kontroller és a szemüvegben lévő lézer érzékelő szenzorokba, és ez alapján számítják ki hogy mi történt. Annyiból erőforrásbarátibb, hogy csak a becsapódás idejét kell mérni a többi szenzorhoz képest, nincs semmi képfeldolgozás. A rift esetében az egésznek a fordítottja történik, nem a szemüveg kapja el a jeleket, hanem az bocsájtja ki, és a kamerák érzékelik az IR ledek mozgását. Ebből képi feldolgozással történik a térérzékelés, és igen, ez cpu igényesebb valamivel. De nem annyival, hogy különösebben probléma legyen, hacsak nem valami elképesztő igényes játékot próbálsz a minimális gépigényen vagy alatta tolni. Nem találkoztam olyannal hogy a cpu fogyott volna el pl a a vga előtt.

    Levitték a gépigényt, mert az async timewarp mellé megérkezett az async spacewarp. Az első azt jelentette, hogy amikor a gép nem tudott stabilan kinyomni magából 90 képkockát másodpercenként, akkor 1-1 köztes képkockát az SDK képes volt "bekamuzni", az előző, már elkészült képkockát torzították úgy, ahogy a szenzorok szerint elmozdult a szemüveg a saját tengelye körül. Ez térben nem működött, tehát ha előre-hátra dőltél pl, csak ha a nézőpontod szögét változtattad (le-fel-jobbra-balra néztél). Megfelelően implementálva elképesztően sokat jelentett a mozgás reszponzivitása terén, Elite Dangerous-ban tapasztaltam DK2-őn olyat, hogy a fejmozgás még teljesen perfektnek tűnt, holott a játék maga már láthatóan akadt, tehát messze nem 90 fps volt, hanem mondjuk 40. Agyam eldobtam.

    A mostani spacewarp esetében akár 45 fps is elég ahhoz, hogy folyamatosnak tűnjön, mivel az előző két képkockából számolt deltát felhasználva találja ki a harmadik képkockát, ha az nem érkezne meg.

    Fontos tudni, és ők is nem tudják eléggé nyomatékosítani, hogy ez csak egy védőháló, ha az app épp elvesztené a 90 fps-t, tilos arra hagyatkozni hogy végig elég 40-50 fps, mert a timewarp és a spacewarp majd megoldja a többit. 90-re kell menni, 90-et kell elérni, csak épp ha véletlenül épp 15 ellenfél bóklászna eléd és mind egyszerre robbanna, akkor sincs még túl nagy baj ha beesne 90 alá az fps.

    A ma már többször linkelt videóval kapcsolatban pedig valami felhő alapúságot magyaráznak de alig tudni róla bármit is. itt ugye több minden is gond: hiába viszed ki a világba, ha nem látod a környezeted, ha wireless akkor erősen limitált az akksi idő is (percek vagy esetleg 1-2 óra), és a felhőből vagy bármilyen netes kapcsolatból pedig tonnányi latency-t össze lehet szedni, márpedig vr-ban a fejmozdítástól a látott kép megjelenítéséig 20 msec a totál elfogadható max, ami bevállalható anélkül, hogy darabokra zúzná az élményt. Ezt pedig még egy közvetlen összeköttetésű pc-vel vagy konzollal sem egyszerű elérni. De alig tudunk még róla bármit is, úgyhogy felesleges még tippelgetni.
    Hamarabb jönne szerintem egy wireless vr szemüveg, ami egy pc-re csatlakozik, de ott is erősen problémás ennyi video jelet átküldeni wireless problémamentesen (2160x1200x90 hz-ről beszélünk a cv1 vagy a vive esetében is), másrészt ott is ott van az akksi probléma. Nem lehet túl nagy vagy nehéz, mert kényelmetlenné teszi a szemüveg viseletét.

    [ Szerkesztve ]

    Star Citizen FAQ http://starcitizen.hu/star-citizen-faq-az-ujaknak/ (Mielőtt kérdeznél)

Új hozzászólás Aktív témák