Új hozzászólás Aktív témák

  • peterk

    senior tag

    válasz janos666 #11274 üzenetére

    Se kötekedni nem akarok, se pedig arról nincs szó, hogy amit leírsz, azt ne értettem volna meg elsőre. A grafikonjaidat, belinkelt adataidat sem vonom kétségbe. Ugyanakkor másról beszélünk. Értem, hogy miért hozod elő azt, hogy a NAND tárhelyek növelésével lényegében lineárisan nő a sebesség. Ezzel látod kizárva látni azt a tényt, hogy a tömörítés negatív impact-ot jelentsen. Nos, miközben logikusnak tűnik az érv, aközben két probléma van ezzel. A belinkelt ábra csak akkor jelentené ezt, ha a vezérlőben szereplő tömörítő chip minden típusban pontosan ugyanúgy működme, azaz igaz lenne, hogy a kisebb és nagyobb meghajtók között semmi más különbség nincs, mint a NAND-ok és a szálak száma. De honnan tudod, hogy a vezérlő így működik? Honnan tudod, hogy egy kisebb drive-ban csak a szálak száma kevesesebb (nincs munkára fogva mind), de ugyanez nem igaz a tömörítő chip-ren nézve? A vezérlők belső felépítése nem nyilvános, ezért nem tudhatod. Csak azt látod, hogy a nagyobb meghajtó átvitele egy ideig lineárisan nő, de hogy ebben mi játszik szerepet (kirázólag a NAND pipeline-ok száma, vagy esetleg a vezérlő egyéb más paraméretei is - pl. cache méret, a 16/32/64 compound parancskészlet használati aránya/módja, stb.), azt nem.

    Lényeg a lényeg: tizenöt éve foglalkozom adattömörítéssel ("egyszerű" kommunikációs/adattranszfer tömörítéstől, pl adatbázisok online tömörítéséig), és egy dolgot hadd mondjak: Olyan nincs, hogy "a tömörítés gyorsít". Olyan van, hogy a tömörítés gyorsíthat. Éppen ettől válik szakmává, hogy megtaláld mikor alkalmazd, és mit, illetve mikor ne. :) Namost, egyikünk sem ismeri az SSD vezérlők belső lelkivilágát, de abban majdnem biztos vagyok, hogy egy egyszerű SSD vezérlőben nincs annyi intelligencia (vagy csak egészen minimális), hogy analíziseket végezzen az érkező adaton, és eldöntse, hogy tömörítse-e vagy sem. Felteszem, hogy a tömörítést (ez ma az általános) egy VLIW társproszesszor végzi (manapság a 3-set az elterjedt). Ennek a kihasználása skálázható - amit a verzérlő nyilván meg is tesz, hogy ne legyen a kimeneten adattorlódás, de várakozás sem -, viszont intelligenciát nem tartalmaz általában (ha van ilyen, akkor csak drágán, speciális eszközökben, és nem magában a processzorban).

    Na mindegy, nem akarom nyújtani, mert szerintem senkit sem érdekel. A lényeg amit akartam mondani: A felhasználót - ide ilyenek járnak - nem érdekli, hogy belül mi zajlik egy SSD vezérlőben. Nem érdekli, hogy mi miről vitatkozunk, nem érdekli, hogy egy adatírás/olvasás - ami ráadásul blokkokban történik - mely blokkja gyorsul éppen a tömörítés miatt, és melyik nem. Egy dolog érdekli. Az, hogy ha "kiírok egy word fájlt", akkor azt melyik SSD teszi meg gyorsabban? Vagy az, hogy "ha kiírok egy mkv HD filmet, akkor melyik lesz a gyorsabb"? Ilyen egyszerű. És innentől kezdve pedig már az van ahonnan kiindultunk. Lehet itt technikai vitákba bonyolódni, de ha valaki cad-el foglalkozik, főleg, ha compressált projekt fájlokkal dolgozik, akkor egy Samsung SSD jobban fog teljesíteni nála, mint egy Sandforce vezérlős. (De pl. egy Intel-nél is.) Ennyi volt a kiindulás, ennyit akartam mondani, és ez továbbra is igaz. A "compression magic" véget ér ott, ahol nem tömöríthető adatok jönnek szembe. Ezt hidd el nekem, aki ezzel foglalkozik.

    (Még valami. Érdemes látni, hogy mindezzel nem a Sandforce vezérlőt - illetve a tömörítő algoritmust használó vezérlőket - "szidtam". Azok nagyon is jók, sőt, consumer szegmensben szerintem kiváló találmány a dolog, mert a tipikus felhasználó számára több előnyt is biztosít, miközben a hátrányaival egy tipikus felhasználó alig találkozik. Rögtön egy előnye például, hogy az ilyen SSD-k esetében nem kell figyelni arra, hogy mennyi szabad helyet hagy, mert a vezérő megoldja, hogy ez ne legyeb probléma. Pont a belső tömörítés által. Vagy pl., böngésző cache-ként kimondottan jól jön a tömörítés. Márpedig otthoni felhasználój jelentős része böngészik. Vagy mondjuk játékok esetén, ha a játék adatai (pálya adatok) nem erősen tömörített formában vannak. Ésatöbbi. De vannak szerepkörök, amiben viszont kimondott hátrány tud lenni. Ilyen az, ha valaki döntően tömöríthetetlen állományokkal dolgozik. Legyen az film, tömörített projekt fájlok, stb. Az ilyen esetekben jobb nem keverni bele automatikus, alacsony intelligenciájú algoritmusokat a folyamatba.

    Hogy egy gyakorlati példával illusztráljam: Manapság aktív vírusirtó, ill. tűzfal nélkül "őrültség" egy átlag felhasználó számára egy windows-os gépet használni. De én, mint fejlesztő, sosem használtam ilyent, mert én nem kapok be vírust. Manuálisan meg tudom oldani azt, hogy elkerüljem. Ergo magam vagyok a vírus védelem, nincs szükségem egy "automatikusra". Ugyanez lehet igaz az adattömörítésre is. Én inkább választok egy automatikus tömörítés nélküli SSD-t, és inkább NTFS tömörítést használok, ahol ráadásul jómagam választom ki, hogy melyik fájl legyen tömörítve és melyik ne. Adatátvitelben, helyspórolásban - sőt az SSD "kímélésben" ez még jobb is, mint az automatikus belső tömörítés, mert több benne az intelligencia: csak azt tömörítem amit érdemes, és azt nem amit nem. De ezt meg tudom csinálni én, meg a hozzám hasonlók, a felhasználók 99%-a viszont nem. Ezért ők csak telepítsenek vírusírtót, mert úgy járnak jól. És ha átlagos otthoni felhasználásra vesznek SSD-t, akkor vegyenek nyugodtan belső tömörítéssel dolgozó SSD-t, mert azzal is általában jól járnak.

    Így már elhiszed, hogy nem kötözködni akartam veled, illetve érthető, hogy mire akartam kilyukadni? :) (Esküszöm, 2 hónapra kiírtam magam. Elnézést, hogy ilyen hosszú lett, mindenkinek havaslom Attila-n kívül, hogy ugorja át. Több ilyen post-szörnyet ígérem, nem produkálok. :))

    [ Szerkesztve ]

    Aki hisz a parajelenségekben, emelje fel a kezem!

Új hozzászólás Aktív témák