Keresés

Új hozzászólás Aktív témák

  • Balage76

    senior tag

    válasz janos666 #14040 üzenetére

    Már bocs, de amiket írtál az butaság.

    Első körben kérlek olvasd el EZT a cikket. A kiemelt részben van a lényeg.

    A firmware egy adott algoritmus szerint számolja a cellák feszültség vesztését. Ez az algoritmus volt rossz. Ezért történt az, hogy a régebben írt adatot lehetett nehezebben visszaolvasni. Minél nagyobb a különbség az elvárt és a valós feszültségadat közt annál tovább tart "visszahozni" a valós információt. Ez pedig az írási és az aktuális időpont közötti "távolsággal" nagyságrendileg egyenesen volt arányos. Egyre többet tévedett az alogoritmus, amit helyre kellett hozni, a "helyrehozás" pedig időt igényelt, ezért lassult az olvasás.

    A 20-60 perces folyamat szerintem egy olvas-töröl-ír műveletsor, amitől pillanatnyilag helyreáll az olvasási teljesítmény. (Ezt firmware frissítés nélkül is meg lehetett csinálni eddig is.)

    A 20-60 perces folyamat előtt frissíti a firmware-t ezzel a valóságos változásnak megfelelően módosítja az algoritmust. Ezután az élő adatokat tároló cellákat újraírja, amivel a startvonalhoz állítja vissza a feszültségszinteket, így az új algoritmussal összhangban lesznek. Lehet hogy Te ezt pillanatnyinak tekinted, de pont a hosszútáv miatt van erre szükség. Igen, ezt az újraírást meg lehetett csinálni más programmal is, de amíg az algoritmus tévedését nem javítod, addig a probléma igazi okát nem javítod.

    A firmware a jövőre nézve pedig vagy arra jó, hogy ez a műveletsor időnként automatikusan lefusson a háttérben vagy a szokásos önkarbantartás lett úgy átalakítva, hogy agresszíven mozgassa az adatokat körbe-körbe, mikor valamit amúgy is csinál, esetleg a kettő keveréke, hogy próbálja minél többet mozgatni az adatokat karbantartás címén is, plusz ha nagyon nincs rá szükség, hogy pakolásszon, akkor időnként elindít egy olvas-töröl-ír ciklust faltól falig.

    Erre érthetően semmi szükség.

    De ha ez így van, akkor könnyen lehet, hogy sokszor lassabb lesz a névleges teljesítményétől. Ha nem is szó szerint lagol, de SSD-hez szokatlanul sokáig tölt vagy ment egy-egy program (véletlenszerűen). Tehát ilyen szempontból inkább rugalmas adattárolásra és kiszolgálásra lenne jó, nem OS és felhasználói programok alá, illetve swap/scratch helynek.

    :U

    Szóval szerintem ezután is elég nagy veszélyben lesznek a EVO-kon tárolt adatok és valószínűleg gyorsabban fognak öregedni, amitől még hamarabb kezdik elveszteni az adatokat. Tehát kb. olyannak tűnnek most nekem, mint amilyennek az amatőrök gondolják az SSD-ket: legjobb ha ki se bonja őket az ember a dobozból, mert ha rendesen használja, akkor már néhány éven belül tönkremehet.

    Eddig sem voltak veszélyben, mert adatvesztésről sehol sem lehetett olvasni, csak az olvasási sebesség csökkenéséről.

    [ Szerkesztve ]

Új hozzászólás Aktív témák