Keresés

Új hozzászólás Aktív témák

  • E.Kaufmann

    addikt

    válasz sajti_pajti #2 üzenetére

    Vannak olyan algoritmusok, pl kép és hangfelismerés, de már képtömörítés és képjavító algoritmusok is használják, amiket tanítással hoznak létre (pl sok hangminta és jelentésük páros), mely során keletkezik egy mátrix (egy táblázat) amit egy úgynevezett neurális háló (idegrendszer mintájára) dolgoz fel
    A neurális hálóban több kis feldolgozó egység, neuron egymással szorosan van összekötve, amelyek működését a mátrix befolyásolja, és GPU-val jól szimulálható, mert a GPU -ban is több kis számítási egység, egyszerűbb utasításkésletű mag van és egy neuron működése egy GPU-n belül számolóegységen szimulálható. Sok kis magon meg egyszerre sok kis neuron futtatható.
    Eddig is volt amúgy lehetőség GPU-t használni, de próbálják szabványosítani ezen neurális hálók szimulációját és a Google féle programozási felülethez készített a Microsoft egy fordítót, hogy ne kelljen külön a Microsoft saját API-jára is átírni egy ilyen mesterséges inteligenciát használó programot.

    Le az elipszilonos jével, éljen a "j" !!!

  • szabomihaly2

    csendes tag

    válasz sajti_pajti #2 üzenetére

    Gyakorlatban a fejlesztőkön kívül szerintem egyelőre senki, semmire... Legalábbis nem hallottam eddig olyan alkalmazásról, ahol (rendszeres használatra) a felhasználó gépén kellene tréningelni ML algoritmust.
    Egyébként eddig ott volt AMD oldalon a ROCm, Nvidianál a CUDA erre a célra és a Tensorflow mindkettőt támogatta. Kíváncsi leszek, hogy ez a DirectML teljesítményben hoz-e bármit is, mert tudtommal a magasabb szintű kód hordozhatósága eddig sem volt olyan nagy probléma.

Új hozzászólás Aktív témák