Új hozzászólás Aktív témák

  • Robitrix

    senior tag

    A dolog ennél kicsit bonyolultabb. Ha üzemel a rendszer, akkor fülel és probál megfejteni minden elhangzó szót hátha neki akarnak adni valami parancsot. Honnan a francból tudná a rendszer, hogy neki mondanak valamit vagy éppen valami magán beszélgetést folytatnak az orra előtt. Ha valaki nem akarja használni az kapcsolja ki a rendszert kézzel vagy paranccsal. További funkciója a rendszernek, hogy fejlődik. Eltárol olyan szavakat mondatokat, amit nem képes felismerni. Majd ezeket lejátszhatóvá teszi a rendszer fejlesztésével foglalkozóknak anélkül, hogy azonosítaná, hogy mi hol kitől hangzott el.... Amikor már visszajátssza embereknek tanulási célból már személytelenek az adatok. A cél az, hogy bár a rendszer nem tudja megmondani, hogy mi hangzott el egy ember esetleg képes neki megfejteni hallás alapján és megadni a rendszernek. Anélkül nem tudna tanulni a rendszer a saját hibáiból. magunk közt szólva a google esetében is van szöveg értés diktálás után, amit egy netes szerveren próbál megfejteni a rendszer. Mondjuk gépelés helyett diktál az ember a telefonnak. Aztán sikerül azt hallani vagy nem amit mondtak neki. :) Nem egyformán beszélnek az emberek és ugyan azt a mondatot is gyakran máshogyan ejtik ki. Azért határozottan növekszik a sikeres felismerés aránya az elmúlt pár évben és vélhetően 2-3 év múlva még inkább jobban fogja felismerni a szóban közölt infókat. Ehhez viszont tanulni kell a rendszereknek a hibáikból. Vagyis ember kell hozzá, aki egyértelműen felismeri mi hangzik el és megadja, hogy mit kellett volna megérteni az elhangzott szövegben. Az idd ki a billit és a vidd ki a bilit tipikus esete. Szóval szerintem nem gáz ha a Siri és hasonló rendszerek továbbítják személytelenül azokat, amit hallanak és nem képesek megfejteni, mert tanulnak belőle.

Új hozzászólás Aktív témák