Új hozzászólás Aktív témák

  • Teasüti

    nagyúr

    válasz icons #33 üzenetére

    Nem kell elemezni a kézfejen lévő összes ujj mozgását. Elég lenne alap vezérléshez annyi, hogy az érzékelt térben vmi (bármi) adott irányba mozog.
    Pl. könyv lapozás: jobbra gyors kézmozdulat. És ennyi. Innentől teljesen mindegy, hogy suhintottam a kezemmel, mutogattam közben, vagy ökölbe szorítottam, vagy épp egy legyet hessegettem el, a lényeg az a primitív mozdulat, miszerint "gyorsan jobbra". Ehhez nem kell különösebb MI sem.
    Aztán lehetne finomítani ezt feltételekkel, mivel az érzékelő precizitása adott. Mehetne rá a kézfej felismerése, aztán az egyik ilyen feltétel lehetne az ökölbe szorított kéz vagy kinyújtott ujj(ak).
    Következő parancs: zárt kézből egy ujj kipattan -> klikk.

    Már jelenlegi állapotában is képes elemezni ilyen szinten a kezet. Csak a szoftverfejlesztők ügyességén múlik a sikere.
    Nem ismerem a Leap API-ját, de kézenfekvő lenne, ha lehetne definiálni alapvető kéztartásokat (elvárható lenne, hogy ezeket magas találati pontossággal fel is ismerje a szoftver) és ezek kombójából máris össze lehet legózni egy gesztust.

Új hozzászólás Aktív témák