Keresés

Új hozzászólás Aktív témák

  • peterk

    senior tag

    válasz Toto2000 #10870 üzenetére

    Sebesség növekedés feltétlenül éreznél. Használat során az SSD elsősorban a rövid elérési idő miatt ad más érzetet, nem pedig a maximális transzfer rate miatt. Ezt még sata 1 alatt is éreznéd.

    A kérdés a megfelelő telepítés. AHCI mód kell neki természetesen (a BIOS-ban), illetve a Snow Leopard AHCI vezérlőjének támogadnia kell a TRIM parancsot. Google-ben rákeresve hirtelen ezt találtam. Ezek szerint megoldható. A többiben már szerintem inkább Mackintosh/Hackintosh fórumokban tudnak segíteni. :)

    Aki hisz a parajelenségekben, emelje fel a kezem!

  • peterk

    senior tag

    válasz subset #10912 üzenetére

    A sandforce vezérlős SSD-kre ez csak bizonyos esetekben igaz. Ha oprendszernek és munka anyagok tárolására használja, akkor a belső tömörítés bőven tud olyan eredményes lenni, hogy nyugodtan kihasználhatja a teljes tárhelyet, felesleges szabad helyet hagyni. Pl. egy teleírt 120 gigás sandforce-os SSD, amelyik "kifelé" 0 üres helyet mutat, a valóságban a tömörítés miatt "belül" bőven tartalmaz 15-20%-nyi szabad helyet. (Kivétel, ha csak nem tömöríthető adat van rajta - pl. film, kép - és más semmi.)

    Aki hisz a parajelenségekben, emelje fel a kezem!

  • peterk

    senior tag

    válasz cintula187 #10941 üzenetére

    Be kell bootolni IDE módban, felrakni az AHCI drivert, és utána újrabootkor már menni fog AHCI módban az XP.

    Aki hisz a parajelenségekben, emelje fel a kezem!

  • peterk

    senior tag

    válasz radi8tor #10995 üzenetére

    "Biztonság kedvéért rendeltem kettőt."

    Ha átbasznak, akkor ne aprózzuk, basszanak át duplán alapon? :D :D :D :D

    Aki hisz a parajelenségekben, emelje fel a kezem!

  • peterk

    senior tag

    válasz Arthuro_Adam #10996 üzenetére

    Ha nem számít a pénz, akkor nyilván vedd a 250-est. ;)

    Ha számít, akkor viszont a 22 és a 40 között az árkülönbség nem csak 1-2 ezer, hogy csak azért megvegyed a nagyobbat, mert a kisebb alig olcsóbb. Az döntsön, hogy mire akarod használni. Egy win7-win8, szokásos otthoni vagy iroda feladatokra használva simán elfér 120GB-on is, dokumentumokkal, 1-2 játékkal, stb. Ha viszont DTP-zel, komoly játékos vagy, videót vágsz, CAD-el dolgozol, stb, akkor kellhet a 250. Ezt te tudod eldönteni.

    Aki hisz a parajelenségekben, emelje fel a kezem!

  • peterk

    senior tag

    válasz mis69 #11006 üzenetére

    A te problémádon sem a Win 7 sem az SSD nem segít sajnos. :(

    Egyszerűen, az atom N270 kevés ahhoz, hogy a mai, flash/html5, média, animáció, javascript intenzív web világban 5-10 ablakban böngésszél. A Win7-hez és ennyi oldalhoz még a 2GB ramot is bőviteni kéne egyébként, mert nincs az a böngésző, amelyik ne zabálná a ramot intenzív böngészés közben.

    Aki hisz a parajelenségekben, emelje fel a kezem!

  • peterk

    senior tag

    válasz mis69 #11012 üzenetére

    Ez abban segít, hogy megnézhess egy 720P-s videót, de másban nem. Ahhoz meg SSD sem kell, a filmnézés normál sebességen jó, nincs mit gyorsítani rajta. :)

    Viccet félretéve, a youtube video egy dolog. De ahogy említetted, néha 15-20 ablakban is böngészel, és ez lassul be, fagy ki, áll le. Ez nem HDD probléma, hanem egyszerűen a gép (proci, ram, stb.) kevés hozzá. Emiatt javítani se fog rajta. Egy SSD annyit javítana csak a dolgon, hogy hamarabb bebootolna az XP-d, meg az első böngésző ablakod hamarabb megnyílna. Onnantól nem a lemezen múlik a teljesítmény.

    Aki hisz a parajelenségekben, emelje fel a kezem!

  • peterk

    senior tag

    válasz mis69 #11018 üzenetére

    Hallgass Attilára. Amikor sok lap van betöltve, akkor nem a vinyód lassúsága miatt nem reagál a rendszer, hanem azért, mert 100%-on pörög a proci. (Néha-néha akár azért is, mert elfogyhat a 2GB ram, de egy XP csak böngészésre használva azért sokáig bírja 2GB rammal, ha amúgy a gép - proci, video kártya - teljesítménye megfelelő).

    Egyébként tapasztalatból is beszélek, kb. két éve apámnak keresgéltem egy otthoni olcsó gépet böngészésre, és egy ilyen atomos konfigot is kipróbáltam pár napig. XP-vel érkezett, és 2GB rammal az is. Nos, böngészőtől függetlenül egyetlen egy flash v. java intenzív weboldal képes volt padlóra küldeni a procit. Pl. az NFL.com (focirajongó vagyok) lényegében használhatatlan volt a géppel.

    Szóval hagyd az SSD-t, és ha mindenképpen eleged van a "szenvedésből" akkor vegyél inkább egy újabb/gyorsabb gépet, azzal sokkal jobban jársz. Nem kell százezres, elég egy integrált kis mini PC is, amiben vagy újabb atom, vagy méginkább AMD brazos (E-350 vagy E-450 pl) integrált chip van. Azok kényelmesen elvisznek egy win7-et is. (Ha pedig van bátorságod építeni, akkor még olcsóbb, mert csak egy mini ITX ház és egy integrált procis mini ITX alaplap kell, belerakod az alaplapot, teszel bele ramot és vinyót és kész is. Így akár 40 körül kihozható egy korrekt kis otthoni mini gép, míg készen véve inkább az ára 60 körül van.)

    Aki hisz a parajelenségekben, emelje fel a kezem!

  • peterk

    senior tag

    válasz mis69 #11025 üzenetére

    Na, ezt most meg én nem értem. :) Azt mondtad, intel atomos géped van. Feltételeztem, hogy a gép valami netbook/subnotebook. Ha az, akkor abba nem fogsz tudni még processzort sem cserélni, mert az alaplapra van forrasztva, azt pedig végképp kizárt, hogy intelről AMD-re válts.
    Ha nem netbook/subnotebookról van szó, hanem összerakott desktop gépről (amiben egy atomos alaplap van), akkor a csere megoldható, de csak alaplappal együtt, kompletten. Egy AMD C-60, C-70-es annyival jobb a jelenlegi atomnál, hogy annak a videokártyája sokkal jobb. Viszont a proci kb. ugyanazt tudja, sőt, bizonyos dolgokban még kicsit lassabb is. (A videokártya azért fontos, mert a broadcom csak kimondottan videogyorsító, mpeg2/4, divx, stb. lejátszáshoz, nem pedig egy általános directx/opengl gyorsító, ezért semmi mást nem gyorsít, mint a video lejátszást - ha a video éppen kompatibilis. Ezzel szemben egy gyorsabb directx/opengl videokártya általában gyorsít, flash, windows UI, stb is gyorsul.).
    Szóval, ha már cserélsz, akkor én minimum egy brazos E-350-et javaslok. Az már processzorban is egy lépéssel feljebb van, mint a jelenlegi atom és "hozzá járó" Radeon 6310-es egy teljesen korrekt asztali video vezérlő, HD támogatással (nem lesz szükséges a broadcomra sem), és jó directx/opengl támogatással. Pl. itt van egy ilyen alaplap, integrálva mindennel. Egy ilyen már szépen elvisz egy win7-et (de még inkább egy win8-at, annak - hiába újabb - kisebb az erőforrás igénye), és ehhez már érdemes SSD-t is venni. ;)

    Aki hisz a parajelenségekben, emelje fel a kezem!

  • peterk

    senior tag

    válasz zdanee #11026 üzenetére

    Egy SSD esetén a technológiánál (MLC, TLC) sokkal többet számít a felhasznált NAND és a vezérlő minősége. Hiába MLC-s egy SSD, ha a NAND chipjei gyengébb minőségűek, vagy a vezérlője "buta". Ezért a "TLC vagy MLC"-vel ne foglalkozz. Még "nem hanyag" felhasználás mellett - értsd. intenzív napi munka, torrentezés, film tömörítgetés ésatöbbi - is annyit tudsz írni egy TLC-s 120-asra, hogy sok évig bírnia kell. "Hanyag" felhasználás mellett meg ősz lesz a hajad mire annyit írnál, hogy az problémás lenne. :)

    Szóval, vedd azt a típust, amelyik leginkább tetszik. Ízlések és pofonok különbözőek, mindenkinek más az ízlése. De csak a TLC miatt nem érdemes vacillálni. Ha a samsung mint márka megfelel, akkor teljes nyugalommal megveheted a TLC-s samsungot is, nem fog "elfogyni". :)

    Aki hisz a parajelenségekben, emelje fel a kezem!

  • peterk

    senior tag

    válasz mis69 #11041 üzenetére

    A C-60-at nem ismerem, még nem volt a kezemben ilyen gép, csak a specifikációi alapján írtam amit írtam. Ezért nem mertem direktben ajánlani. De mivel a videokártyája sokkal jobb, mint a jelenlegi gépednek (és azért a proci is valamivel jobb), egy próbát megér, ha ki tudod próbálni vétel előtt...

    Aki hisz a parajelenségekben, emelje fel a kezem!

  • peterk

    senior tag

    válasz piRate_nEx #11093 üzenetére

    Ehhez nem kell ennyivel olcsóbban adni. Ha csak néhány ezerrel olcsóbban adják, akkor is oda tódul hozzájuk a nép. ;)

    Szerintem, ha tényleg tiszta az üzlet (nem valami feketeimport), akkor egy beetetési/reklám akcióról lehet szó. Ezzel népszerűsítik a boltot.

    Aki hisz a parajelenségekben, emelje fel a kezem!

  • peterk

    senior tag

    válasz anytime #11103 üzenetére

    Az nem kérdés, hogy jobban jársz. Persze, mivel az SSD-t is hordozni akarod, ezért - hacsak nem esata 6GB portot használsz, amit nem hiszek - USB 2.0 alatt messze nem fogja tudni azt a sebességet hozni, amit egy SSD tud. USB 3.0 alatt már jobb a helyzet, de még az is messze lesz az SSD "normál" sebességéhez. A pendrive-nál viszont jóval gyorsabb lesz, az biztos.

    Azt viszont érdemes figyelembe venned, hogy egy pendrive sokszor annyi írási ciklust kibír, mint az SSD. Ezért napi 30-40GB másoláshoz azért legalább egy 120-as SSD-t vegyél, mert egy 32/64GB-ost azért elég hamar le lehet használni (a "hamar"-on 2-3 év várható élettartamot értek - ami persze lehet jóval kevesebb és több is).

    Aki hisz a parajelenségekben, emelje fel a kezem!

  • peterk

    senior tag

    válasz anytime #11108 üzenetére

    Az SSD ki fogja használni az USB 2.0 teljes sebességét, ami elméletileg 480Mbit/s, valós alkalmazásokban pedig valahol 40-45MByte/s sebességet jelent."Átlagos pendrive" sebességet nem tudok mondani, mert erősen eltérnek, de jellemzően az 5-20MB/s tartományban mozog az írási, és ennél kicsit nagyobb az olvasási sebességük nagy fájlok esetén. (A felső vége - 20MB/s - elég valószínűtlen.) Azaz, legalább dupla, de jó eséllyel 3-4-szeres sebességnövekedést fogsz tapasztalni.

    Aki hisz a parajelenségekben, emelje fel a kezem!

  • peterk

    senior tag

    válasz Vasinger! #11131 üzenetére

    "A TLC-k hány % telítettség felett lassulnak? Tehát mennyit kéne szabadon hagyni?"

    A TLC-k nem lassulnak, lényegében az utolsó csupp MB-ot is ugyanolyan sebességgel tudod kiírni, mint tök üres lemezre. Ez a vezérlő miatt van. A samsungok nem használnak belső tömörítést, ezért emiatt nincs lassulás, a wear leveling algoritmus pedig a háttérben fut, és van rá elkülönített terület, amit el sem érsz, meg sem tudsz formázni. (ezért 120-as és nem 128-as. Azt a maradék 8GB-ot a vezérlő elkéri magának, így ennyi szabad hely mindig lesz legalább).

    Mindezzel együtt, mivel a samsung vezérlőben nincs belső tömörítés, ezért ténylegesen tele lehet írni a 120GB-t. Emiatt - bár a fent említett 8GB mindenképpen megvan - érdemes néhány százalék üres helyet még hagyni. Mondjuk ha hagysz 10 gigát akkor már nincs min aggódnod. (Ez nem azt jelenti, hogy egyszer-egyszer ne írhatnád csuppig, ha éppen kell. De hosszabb távon jó, ha van ennyi szabad hely.)

    Aki hisz a parajelenségekben, emelje fel a kezem!

  • peterk

    senior tag

    válasz total90 #11190 üzenetére

    Nem teljesen világos, hogy mi is lenne az a "komolyabb PC-s projekt" amibe 4TB SSD-re lenne szükség, de említésre sem kerül a raid... 4db 1 gigás SSD a legbarátibb áron is 650-700 ezer ft. Ennyiért olyan hardveres tárhely tömböt lehet megépíteni hagyományos HDD-ből és minőségi raid vezérlőből, aminek a sebessége megközelíti a mai legjobb SSD-k sebességét, miközben tárhelyben többszörösét nyújtják, és még a raid miatt adatbiztonság/rendelkezésre állás szempontjából is sokkal jobbak.

    Ha netán olyan extrém tárhely-sebesség igénye lenne annak a gépnek, ahol rendkívül alacsony elérési időkre - és ezért feltétlenül SSD-re - van szükség, akkor pedig egy ilyen gép kialakítása eleve azzal indul, hogy az SSD-k raid tömbbe vannak fűzve. Egyszerűen, 4TB SSD-t - általában véve 4db v több önálló lemezt - nem érdemes máshogy rendszerbe állítani. Onnantól pedig a partícionálás is a tömb(ök)re történik, és az egész felvetés/kérdés átalakul.

    Szóval, ha nem egy "pénz nem számít, látvány PC" kiépítése a cél, akkor azt javasolnám, hogy fussatok neki még egyszer a feladat ismeretében a gép megtervezésének. Ha pedig az előző (látvány PC), akkor véleményem szerint tök mindegy, mit hogyan partícionáltok rajta. :)

    Aki hisz a parajelenségekben, emelje fel a kezem!

  • peterk

    senior tag

    válasz R1200GS #11196 üzenetére

    Vedd meg nyugodtan. A sata2 miatt úgysem tudnád kihasználni egy ennél gyorsabb (szekvenciális) írást tudó lemez sebességét, úgyhogy nálad végképp nem érdemes gyorsabb meghajtóban gondolkodni. Nem mintha sata3 alatt bármi probléma lenne ezzel a meghajtóval, ott is bőségesen kielégitő teljesítményt nyújt. A 240TB várható írási kapacitásának végét meg úgyis valószínűleg az unokád fogja vele elérni. :)

    Aki hisz a parajelenségekben, emelje fel a kezem!

  • peterk

    senior tag

    válasz cstom #11206 üzenetére

    Nincs olyan, hogy "best buy" anélkül, hogy ne mondanád el, hogy miként tervezed használni az SSD-t. A "Kingston MLC-s és gyorsabb" ugyanis nem abszolút jellemző, hanem használatfüggő. Egy belső tömörítést használó vezérlő "real life" sebességéről a zero fill sebességteszt nem mond sok érdemit. A zero fill teszt arra való, hogy ellenőrizd, hogy a drive-od korrekten lett installálva. Utána a valós, mindannapi, használatkozbeni teljesítményéről nem zero fill teszttel kapsz reálisabb képet.

    Ha én döntenék, akkor a gyártón/gariztatási szempontokon kívül egy szempontot vennék figyelembe: Ha úgy fogom valószínűleg használni az SSD-t, hogy nem írom tele, de zenét, filmeket gyakran töltögetnék, másolgatnék, konvertálgatnék rajta, akkor a Samsungot venném. Ha viszont vagy erősen teleírnám, vagy főként dokumentumokkal dolgoznék rajta, akkor pedig a Kingston-t.

    Aki hisz a parajelenségekben, emelje fel a kezem!

  • peterk

    senior tag

    válasz cstom #11211 üzenetére

    Akkor inkább samsung. A fotók tömörített állományok, ahogy általában a vektorgrafikai fájlok is. Ezzel egy tömörítő algoritmusos vezérlő, mint a Kingston-é, megszenved, lassan írja. A samuban nincs belső tömörítés, az nem lassul be emiatt. Viszont a samun érdemes egy 5-10GB szabad helyet hagyni, hogy a wear leveling algoritmus "nagy levegővel" dolgozhasson.

    Aki hisz a parajelenségekben, emelje fel a kezem!

  • peterk

    senior tag

    válasz Bodor #11216 üzenetére

    Hogyhogy nem szenved? Felére, harmadára esik a sebessége a zero fillhez (optimálisan tömöríthető) fájlokhoz képest. Az általad linkelt tesztben is. Azaz, éppen az az előnye veszik el, amit az MLC miatti nagyobb - elvi - írási sebessége adna neki a Samsunghoz képest.

    Egyszerűen azért ajánlottam a samsungot, mert egy átlagos gépen alapesetben döntően olvasás történik (oprendszer betöltődés, programok betöltése), amihez képest arányaiban kevesebb az írás. És ha ez az írás ráadásul döntően nem tömöríthető fájlokat jelent - ahogy a kérdező esetén -, akkor - véleményem szerint - érdemesebb a magasabb olvasási sebességet figyelembe venni Márpedig a samsung ebben jobb. Szekvenciálisan 50-70, de pl. 4k QD 32 olvasásban - ami egy multithread oprendszer párhuzamos olvasási kéréseit próbálja emulálni, azaz egy egyszerű teszttől elvárhatóhoz képest talán a legközelebb áll a real life alkalmazáshoz - 110-120MB/s helyett 280-290MB/s-t teljesít. Ami már elég markáns különbség.

    Ezzel együtt, nincs semmi gond a Kingstonnal, csak ha már megkérdezte, akkor elmondtam, hogy véleményem szerint az ő használati gyakorlata alapján a Samsunggal talán jobban járna. Ráadásul a Kingston pár ezerrel drágább is, és nem látom, hogy hol érné meg neki kifizetni plusz pár ezer forintot, ha nem tudja kihasználni az előnyeit.

    Így érthetőbb? :)

    Aki hisz a parajelenségekben, emelje fel a kezem!

  • peterk

    senior tag

    válasz Mr. Erikszon #11221 üzenetére

    Életre szóló garanciával? Hülyéskedsz? :)
    Hát persze, hogy megéri. Már, ha az a garancia tényleg életre szól, és nem "becsszóra tesó" jellegű. :)

    Aki hisz a parajelenségekben, emelje fel a kezem!

  • peterk

    senior tag

    válasz zolikaDB #11242 üzenetére

    A leírtak alapján jól nem tudsz választani, de rosszul sem nagyon. A 32GB-ost felejtsd el, azon egy Win8 64 bit nem nagyon fér el, ha még telepítesz pár programot is rá, és valamennyi helyet is illik hagyni. A 64GB-osok pedig mind 18 ezer körül járnak. Ezzel egyrészt nem jársz jól, mert 24 körül már 120-ast lehet kapni, azaz GB/forint alapon ma már a 60 gigások nagyon drágák. Másrészt mint márka, több jó is van. Intel, OCZ, ADATA mind megvehető. Mivel a legolcsóbb a Kingston V300 60GB, ami ráadásul az a Kinsgston ami már jó is (a korábbi modellek azért nem voltak az igaziak), így akkor vedd azt. Az még belül is van a 18-on.

    Aki hisz a parajelenségekben, emelje fel a kezem!

  • peterk

    senior tag

    válasz Nixon18 #11251 üzenetére

    Én archicad alá nem vennék olyan SSD-t, aminek a vezérlője belső tömörítést alkalmaz. Legalábbis akkor, hogy félprofi/profi munkákat végzel, azaz 10mb fölötti projekt méretekkel dolgozol. Ezeknek a be-ki tömörítgetése erősen lelassítja az SSD effektív sebességét. Az intel használ belső tömörítést, a Samsung nem. Ezzel válaszoltam is, hogy melyiket venném. :)

    Aki hisz a parajelenségekben, emelje fel a kezem!

  • peterk

    senior tag

    válasz janos666 #11259 üzenetére

    Nem. :) Ha egy Intel Core I3 vagy erősebb proci lenne a vezérlőbe építve, akkor persze igaz lenne amit írsz (ezért van pl., hogy az NTFS tömörítés egy mai átlag gépen gyorsítja az olvasást, még SSD-n is, mert a kitömörítés még mindig gyorsabban megy a RAM-ban, mint az amúgy kva gyors SSD-ről való olvasás.)

    De a vezérlőkben nem ilyen erős chipek vannak, ezért a ki/be tömörítési sebesség lényegesen lassabb, mint amit az SSD fizikailag képes lenne kiírni. Egy csak nullákból álló fájlt persze ez is villámygyorsan tömörít, de azt ma már egy kávéfőzőbe épített chip is villámgyorsan tömöríti. :) Ezért is van az, hogy tömörítős vezérlővel ellátott SSD-t mindenki zero fillben tesztel. Mert csak ott éri el (majdnem) a szekvenciális olvasás és írás az SSD fizikai képességeit. Amint nem zero fillel, hanem random adattal futtatod a tesztet, az ilyen SSD-k azonnal be is fékeznek rendesen, mert a tömörítés belassítja őket. Ezzel szemben pl. a samsungok - amikben nincs tömörítés - lényegében ugyanolyan sebességgel dolgoznak, az adat jellegétől függetlenül. Ezért ajánlottam neki a samsungot. Azzal nem lesz sebesség csökkenése.

    (A tömörítés vs írási mennyiség csökkenésében igazad van, valóban kevesebb az írás így. Node, naponta ötször megbeszéljük körülbelül, hogy ennek kimondott szerver jellegű használaton kívül nincs jelentősége. Nem tudsz annyit ráírni egy mai SSD-re, hogy belátható időn belül leamortizáld. Akkor pedig mindegy, hogy a tömörítés kímél-e vagy sem.

    De, ha már itt tartunk, van egy előnye a belső tömörítésnek: Az, hogy kifelé nem látszik. Azaz, ha pl. egy Intel vagy Kingston meghajtót teljesen teleírsz, a belső tömörítés miatt az valójában nem lesz teljesen tele, hanem marad egy 10-25%-nyi szabad hely, mert "belül" kisebb helyen elfér az adat. Azaz, ezzel a drive automatikusan biztosítja magának a wear leveling megfelelő működéséhez a helyet, nincs szükség arra, hogy te hagyjál valamennyi szabad helyed a meghajtón. Az ilyen drive-kat nyugodtan akár állandóan is teljesen tele lehet írni. Ez a tömörítést nem használó SSD-kre nem igaz. A samsungokon pl. érdemes valamennyi szabad helyet hagyni.)

    [ Szerkesztve ]

    Aki hisz a parajelenségekben, emelje fel a kezem!

  • peterk

    senior tag

    válasz Nixon18 #11261 üzenetére

    A partícionálás rajtad múlik. A "hülyebiztos" :) megoldás nyilván az, ha hagysz valamennyi partícionálatlan helyet. De ha nem csak egy partíciót használsz, hanem külön rendszer és munka partíciót, akkor nincs különösebb értelme helyet hagyni, hiszen a rendszer partíciót úgyis picit túl kell lőni, hogy minden elférjen rajta. Az a 10-15 giga amivel túllövöd, már pont elég is. És nyilván a munka partíció sem lesz teljesen tele állandóan.

    u.i.: A márka-hűségen/ragaszkodáson kívül racionális okot nem tudok mondani, amiért az Intel jobban megérné. Minőségben, garanciában nincs különbség, és a te igényeidnhez éppenséggel a Samsung passzol jobban. Ettől függetlenül a márka-hűség/ragaszkodás jelentőségét nem írnám le. Én magam is van ahol egyszerűen szeretek egy bizonyos márkát venni, pedig racionális oka nincs. (Igaz, hátránya sincs.)

    [ Szerkesztve ]

    Aki hisz a parajelenségekben, emelje fel a kezem!

  • peterk

    senior tag

    válasz janos666 #11263 üzenetére

    Rosszul képzelted. :) A tömörítési algoritmus az tömörítési algoritmus. az mindenképpen egy plusz fázis a kiírásban.

    Ha már el akarod valahogy képzelni, akkor képzeld azt, hogy tömörítési algoritmus nélkül a bemenő adat egyszerűen bekerül a kiírási cache-be és a kiírást végző alrendszer innen már írja is ki egyből ahogy tudja. A tömörítő algoritmussal rendelkező vezérlőknél pedig közbe van iktatva egy átmeneti tár, ebbe érkezik a bemenő adat, ebben a tárban a vezérlő betömöríti azt, és a tömörített adatot teszi a kiírási cache-be.

    Namost, ezekben a vezérlőkben nyilván valami nagyon gyors algoritmus működik, mint pl. az NTFS tömörítésnél. Az NTFS tömörítés az un. LZNT1 algoritmust használja, annak is a gyorsított, un. "3-byte minimum search " verzióját. Ez egy rendkívül gyors, de cserébe persze kevésbé hatékony tömörítés (egy zip, rar, 7zip, gzip sokkal jobb tömörítési arányra képes, de nagyságrendekkel lassabb). A Sandforce vezérlőben konkrétan nem tudom milyen algoritmus dolgozik, de biztos vagyok benne, hogy valami nagyon hasonló, mint az NTFS tömörítésben. De legyen akármilyen gyors is, akkor is egy plusz lépés. Annál, hogy odaadom az adatot, amit egyből ki is írok, csak lassabb lehet az, ha odaadom az adatot, tömörítem, és úgy írom ki. Ehhez egyébként nem kell másik drive másik vezérlőjével összehasonlítani, elég, ha összehasonlítod ugyanannak a Sandforce-os drive-nak a zero fill-ben mérhető és a random adattal mérhető sebességét. A zero fill (minden nulla) tömörítése kerül a legkevesebb időbe (lényegében szinte időveszteség nélkül elvégezhető), ezért a sebesség - szinte - eléri a tömörítés nélküli optimális maximális sebességet. Azt, amire a vezérlő és a NAND lapkák fizikailag képesek (feltéve, hogy a busz nem fogja vissza. A SATA3 van olyan gyors, hogy ne legyen szűk keresztmettszet.) Amint azonban "valós" adatot kap a vezérlő, azonnal lelassul a tömörítés - természetes módon. A teszt ezt vissza is igazolja, a drive minden teszt paraméterben alaposan lelassul random tesztben. Megjegyzem, a tömörítés elve miatt - legyen szó bármilyen algoritmusról - a nagyon jól tömöríthető adatok gyorsabban tömöríthetők, mint a lassan tömöríthetőek. Ezt le is tesztelheted. Csinálj egy 100 megás fájlt csupa nullákból és csomagold be zip-el, majd csomagolj be egy ugyanakkora avi fájlt zippel. Az avi fájl betömörítése sokszor annyi ideig fog tartani. Ugyanezzel a módszerrel letesztelheted a Sandforce vezérlőt is. Csak ott nagyobb fájlt használj. Mondjuk készíts egy 4 gigás csupa nullás fájlt, és egy ugyanakkora film-fájlt, és másold át mindkettőt ugyanazon a drive-on egy másik mappába. Markáns különbséget fogsz látni a sebességben. A Samsung esetén pedig - mivel nincs benne tömörítés - a két esetben meg fog egyezni a sebesség.

    Aki hisz a parajelenségekben, emelje fel a kezem!

  • peterk

    senior tag

    válasz #78232832 #11266 üzenetére

    Jajj... Tudom, hogy szarban van a haza, vigyázni kell a pénzre, de 1-2 ezres különbség esetén ne használjon már valami olyant 3-4 évig, aminél amúgy talált volna jobbat, amit szeret, de azt majd nem lehet annyiért eladni. :)
    (Tudom, hogy jót akarsz neki, csak én ettől az azért vegyed azt mert azt majd X év múlva jobban el tudod adni érvtől a falra mászom. Bocsásd meg nekem. :) )

    [ Szerkesztve ]

    Aki hisz a parajelenségekben, emelje fel a kezem!

  • peterk

    senior tag

    válasz janos666 #11268 üzenetére

    Hogy őszinte legyek, nem fogom, hogy mit is cáfoltál azzal amit írsz. Felhasználó szempontból baromi egyszerű a történet: Fogod magad és írsz az SSD-re valami adatot, majd fogod magad és olvasol róla adatot. És azt tapasztalod, hogy az egyik SSD esetén az történik, hogy ha nullával teli fájlt olvasol, akkor 500MB/s körül olvas, ha véletlenszerű adatokkal teszed ugyanezt, akkor a teljesítmény csökken. Esetenként feleződik, harmadolódik. A másik SSD esetén pedig, amelyik hasonlóan 500MB/s körül olvas, nincs ilyen jelenség, mindenféle adattal ugyanezt a teljesítményt hozza.

    Aki hisz a parajelenségekben, emelje fel a kezem!

  • peterk

    senior tag

    válasz zolikaDB #11277 üzenetére

    Szegény Fire/SOUL/CD. Halálra melózza magát, hogy ellássa a népet infókkat, és addig nem sikerül eljutni, hogy a nyitó hozzászólásba belekukkants, pedig ott virít a topic elején, kiemelten. :D :D De tudom, minkenki siet, nincs ideje kutakodni, úgyhogy ne vedd kötekedésnek amit írtam, csak Fire/SOUL/CD-t sajnálom. ;)

    Szóval, nyisd csak le a topic nyitó hozzászólást, és benne megtalálod minden kérdésedre a választ. A win7/win8 telepítésről egy külön, részletes, minden információval ellátott cikket fogsz találni.

    Aki hisz a parajelenségekben, emelje fel a kezem!

  • peterk

    senior tag

    válasz janos666 #11274 üzenetére

    Se kötekedni nem akarok, se pedig arról nincs szó, hogy amit leírsz, azt ne értettem volna meg elsőre. A grafikonjaidat, belinkelt adataidat sem vonom kétségbe. Ugyanakkor másról beszélünk. Értem, hogy miért hozod elő azt, hogy a NAND tárhelyek növelésével lényegében lineárisan nő a sebesség. Ezzel látod kizárva látni azt a tényt, hogy a tömörítés negatív impact-ot jelentsen. Nos, miközben logikusnak tűnik az érv, aközben két probléma van ezzel. A belinkelt ábra csak akkor jelentené ezt, ha a vezérlőben szereplő tömörítő chip minden típusban pontosan ugyanúgy működme, azaz igaz lenne, hogy a kisebb és nagyobb meghajtók között semmi más különbség nincs, mint a NAND-ok és a szálak száma. De honnan tudod, hogy a vezérlő így működik? Honnan tudod, hogy egy kisebb drive-ban csak a szálak száma kevesesebb (nincs munkára fogva mind), de ugyanez nem igaz a tömörítő chip-ren nézve? A vezérlők belső felépítése nem nyilvános, ezért nem tudhatod. Csak azt látod, hogy a nagyobb meghajtó átvitele egy ideig lineárisan nő, de hogy ebben mi játszik szerepet (kirázólag a NAND pipeline-ok száma, vagy esetleg a vezérlő egyéb más paraméretei is - pl. cache méret, a 16/32/64 compound parancskészlet használati aránya/módja, stb.), azt nem.

    Lényeg a lényeg: tizenöt éve foglalkozom adattömörítéssel ("egyszerű" kommunikációs/adattranszfer tömörítéstől, pl adatbázisok online tömörítéséig), és egy dolgot hadd mondjak: Olyan nincs, hogy "a tömörítés gyorsít". Olyan van, hogy a tömörítés gyorsíthat. Éppen ettől válik szakmává, hogy megtaláld mikor alkalmazd, és mit, illetve mikor ne. :) Namost, egyikünk sem ismeri az SSD vezérlők belső lelkivilágát, de abban majdnem biztos vagyok, hogy egy egyszerű SSD vezérlőben nincs annyi intelligencia (vagy csak egészen minimális), hogy analíziseket végezzen az érkező adaton, és eldöntse, hogy tömörítse-e vagy sem. Felteszem, hogy a tömörítést (ez ma az általános) egy VLIW társproszesszor végzi (manapság a 3-set az elterjedt). Ennek a kihasználása skálázható - amit a verzérlő nyilván meg is tesz, hogy ne legyen a kimeneten adattorlódás, de várakozás sem -, viszont intelligenciát nem tartalmaz általában (ha van ilyen, akkor csak drágán, speciális eszközökben, és nem magában a processzorban).

    Na mindegy, nem akarom nyújtani, mert szerintem senkit sem érdekel. A lényeg amit akartam mondani: A felhasználót - ide ilyenek járnak - nem érdekli, hogy belül mi zajlik egy SSD vezérlőben. Nem érdekli, hogy mi miről vitatkozunk, nem érdekli, hogy egy adatírás/olvasás - ami ráadásul blokkokban történik - mely blokkja gyorsul éppen a tömörítés miatt, és melyik nem. Egy dolog érdekli. Az, hogy ha "kiírok egy word fájlt", akkor azt melyik SSD teszi meg gyorsabban? Vagy az, hogy "ha kiírok egy mkv HD filmet, akkor melyik lesz a gyorsabb"? Ilyen egyszerű. És innentől kezdve pedig már az van ahonnan kiindultunk. Lehet itt technikai vitákba bonyolódni, de ha valaki cad-el foglalkozik, főleg, ha compressált projekt fájlokkal dolgozik, akkor egy Samsung SSD jobban fog teljesíteni nála, mint egy Sandforce vezérlős. (De pl. egy Intel-nél is.) Ennyi volt a kiindulás, ennyit akartam mondani, és ez továbbra is igaz. A "compression magic" véget ér ott, ahol nem tömöríthető adatok jönnek szembe. Ezt hidd el nekem, aki ezzel foglalkozik.

    (Még valami. Érdemes látni, hogy mindezzel nem a Sandforce vezérlőt - illetve a tömörítő algoritmust használó vezérlőket - "szidtam". Azok nagyon is jók, sőt, consumer szegmensben szerintem kiváló találmány a dolog, mert a tipikus felhasználó számára több előnyt is biztosít, miközben a hátrányaival egy tipikus felhasználó alig találkozik. Rögtön egy előnye például, hogy az ilyen SSD-k esetében nem kell figyelni arra, hogy mennyi szabad helyet hagy, mert a vezérő megoldja, hogy ez ne legyeb probléma. Pont a belső tömörítés által. Vagy pl., böngésző cache-ként kimondottan jól jön a tömörítés. Márpedig otthoni felhasználój jelentős része böngészik. Vagy mondjuk játékok esetén, ha a játék adatai (pálya adatok) nem erősen tömörített formában vannak. Ésatöbbi. De vannak szerepkörök, amiben viszont kimondott hátrány tud lenni. Ilyen az, ha valaki döntően tömöríthetetlen állományokkal dolgozik. Legyen az film, tömörített projekt fájlok, stb. Az ilyen esetekben jobb nem keverni bele automatikus, alacsony intelligenciájú algoritmusokat a folyamatba.

    Hogy egy gyakorlati példával illusztráljam: Manapság aktív vírusirtó, ill. tűzfal nélkül "őrültség" egy átlag felhasználó számára egy windows-os gépet használni. De én, mint fejlesztő, sosem használtam ilyent, mert én nem kapok be vírust. Manuálisan meg tudom oldani azt, hogy elkerüljem. Ergo magam vagyok a vírus védelem, nincs szükségem egy "automatikusra". Ugyanez lehet igaz az adattömörítésre is. Én inkább választok egy automatikus tömörítés nélküli SSD-t, és inkább NTFS tömörítést használok, ahol ráadásul jómagam választom ki, hogy melyik fájl legyen tömörítve és melyik ne. Adatátvitelben, helyspórolásban - sőt az SSD "kímélésben" ez még jobb is, mint az automatikus belső tömörítés, mert több benne az intelligencia: csak azt tömörítem amit érdemes, és azt nem amit nem. De ezt meg tudom csinálni én, meg a hozzám hasonlók, a felhasználók 99%-a viszont nem. Ezért ők csak telepítsenek vírusírtót, mert úgy járnak jól. És ha átlagos otthoni felhasználásra vesznek SSD-t, akkor vegyenek nyugodtan belső tömörítéssel dolgozó SSD-t, mert azzal is általában jól járnak.

    Így már elhiszed, hogy nem kötözködni akartam veled, illetve érthető, hogy mire akartam kilyukadni? :) (Esküszöm, 2 hónapra kiírtam magam. Elnézést, hogy ilyen hosszú lett, mindenkinek havaslom Attila-n kívül, hogy ugorja át. Több ilyen post-szörnyet ígérem, nem produkálok. :))

    [ Szerkesztve ]

    Aki hisz a parajelenségekben, emelje fel a kezem!

  • peterk

    senior tag

    válasz zolikaDB #11281 üzenetére

    Igazad van, bocs. Jó hír, hogy így is ráakadtál. :) (Azt olvasd végig, és menni fog a telepítés.)

    (Ne lepődj meg, ezt a postot elküldtem privátban is. Mellényomtam. :D )

    Aki hisz a parajelenségekben, emelje fel a kezem!

  • peterk

    senior tag

    válasz kalapacsolok #11287 üzenetére

    Mit telepítenél rá - oprendszer, alkalmazások, játékok? - ill. mire/hogyan használnod a gépet?

    (Rendszervinyónak, egy böngészős, filmnézős, átlagos gépre jó a KIngston, nincs értelme drágábat/jobbat keresned. Főleg 64GB-osban.)

    Aki hisz a parajelenségekben, emelje fel a kezem!

  • peterk

    senior tag

    válasz janos666 #11295 üzenetére

    "Persze, fennáll a lehetősége, hogy attól függetlenül, hogy nem szitálnak rá más jelölést, még nem pont ugyan azt a SandForce chipet rakják az SSD-kbe minden kapacitáshoz, hanem pl. a belső cache mérete, és/vagy a magok száma változik, mert a selejtes chipeket megnyesik kisebbre, és azokat küldik a kisebb kapacitású SSD-khez. De ezt viszonylag hihetetlennek érzem. Ezekből az adatokból inkább azt tudnám elhinni, hogy a gyártók piszkálnak bele úgy a firmware-be, hogy mesterséges limitekkel korlátozzák a kisebb kapacitású modellek sebességét."

    Az utóbbi a valószínűbb, igen. Elég csak az Intel processzorokra gondolni, amikből lényegében 1 fajta készül, aztán letiltogatnak a funkciókból a kisebbik modellekben. Lényeg a lényeg, hogy amíg nem ismerjük a belső felépítést, addig sajnos az ilyen adatok, mint amiket a különböző méretű SSD-k átvitelénél kapunk, sok következtetésre nem engednek jutni - azon kívül, hogy nyilván több párhuzamos pipeline/busz dolgozik. Ennél többre nem. Nemcsak a tömörítéssel kapcsolatban nem, hanem pl. azt sem nagyon tudjuk, hogy milyen algoritmussal optimalizálják az írást a kisebb ill. nagyobb meghajtókon. Arra gondolok, hogy az újraírás ugye több ciklusos - előbb törölni kell -, namost, hogy mit tesz egy vezérlő ha van üres és van törlendő egység is, hogyan "optimalizál" közöttük, arról sincs fogalmunk. Egyet tudunk csak: minden tömörítési algoritmus időt vesz igénybe, ezért bármilyen adat-transzerbe épülő algoritmusra igaz (nem csak SSD/háttértárnál, hanem különböző protokollok esetén is is), hogy van egy "határpont", ami alatt a tömörítés növeli az adatátviteli kapacitást (mert a tömörítés kevesebb időt vesz igénybe, mint a tömörítetlenül átküldött és a tömörítetten átküldött adatmennyiség különbségének időigénye), míg efölött megfordul a történet. Az tisztán látszik, hogy a random (lényegében tömöríthetetlen) adatoknál a Sandforce vezérlő már megszenved, jelentősen esik a sebessége. Általános használati körülmények között ez nem gond, mert ami veszik a réven, az bőven bejöhet a vámon (a jól tömöríthető fájloknál). De annak aki tipikusan eleve tömörített fájlokkal dolgozik, az jó eséllyel belefuthat abba, hogy a "határponton" innen kerül, és akkor már több veszik a réven.

    [ Szerkesztve ]

    Aki hisz a parajelenségekben, emelje fel a kezem!

  • peterk

    senior tag

    válasz Vasinger! #11340 üzenetére

    Az én laptopomban éppen egy 120-as samu 840 van, és lényegében hasonlóra használom. Windows 8, visual studio 2008 és 2012, devexpress (egy külső library, több gigás) mindegyik VS-re telepítve, SQL server 2012, IIS szerver (beépített és IIS8 express is), mellette full office, minden létező böngésző (fejlesztő vagyok, tesztelésre kell), photoshop, plusz egy halom kisebb saját használatú program (lejátszó, konverter, stb.) És még emellé van egy VirtuaBox, amiben fut egy Ubuntu 13.04, egy windows 7, egy windows XP és egy Mac OSX virtuális gép. És vagy 25 giga forráskód és projekt dokumentáció, a munkáimhoz kapcsolódóan.

    Mindez elfér a gépen úgy, hogy a 120-as SSD ketté van partícionálva, rendszer és munka partícióra. A cache le van véve 512MB-ra (8GB mellett még virtual gép futtatása mellett is felesleges), és le van tiltva a hibernáció. Így a C-n (rendszer) kb még 15 giga, a D-n (munka) még 25 giga helyem van. Mondjuk ehhez némi "trükk" is kell, mert ennyi azért több lenne valamivel, mint 120 giga. De a rendszer partíción a csak olvasott mappákra (windows mappán belül a legtöbb mappa, a program files, stb.) NTFS tömörítést állítottam be, ezzel kb. 15 giga helyet spóroltam - és még fel is gyorsult tőle a rendszer. A munka vinyón is hasonlóan jártam el, a 25 gigányi munka jelentős része szintén NTFS tömörített. Az én példám persze extrém, de azért jelzi, hogy kellő odafigyeléssel jól el lehet férni egy munka gépen 120 gigán. A laptoppal kapott 750-es sima HDD-t be sem raktam, egy 3.0-s USB rackben van a táskámban, ha kellene. Azon vannak a telepítő ISO-k, az éppen nem használt virtuális gépek, és persze filmek/sorozatok, mert az ember azért szórakozik is időnként. :)

    Aki hisz a parajelenségekben, emelje fel a kezem!

  • peterk

    senior tag

    válasz janos666 #11342 üzenetére

    Ez offtopic, úgyhogy próbálok rövid lenni: Azért vágtam ketté, mert ez elsősorban munkagép és így könnyebb menedzselni. Úgy van megoldva, hogy minden, a rendszerhez tartozó adat a c:\-n van, és minden személyes, munka és beállítás jellegű adat pedig a d:\-n. Olyan szintig, hogy pl. a profile-om is fizikailag a d-n van (a c-n egy softlink mutat a d-n levő mappára, így a windows "azt hiszi", hogy a c:\users\profil mappába ír, de az valójában a d-n van).

    Namost a komplett d meghajtóra be van állítva egy folyamatos verzionált differential felhőbe mentés, így az adatokról azonnali offsite mentés van mindig. A c partícióról pedig készítünk egy komplett (sector by sector) partíció mentést abban az állapotban amikor az általunk használt szoftverek, fejlesztőeszközök mindegyike telepítve és konfigurálva van. Ez viszonylag ritkán változik - lényegében csak a szoftver update-ek érkeznek -, így elég ha 1-2 havonta csinálunk egy-egy új mentést a c-ről. Mindennek az a lényege, hogy akármilyen baj történik - legyen szó hardverhibáról, vagy a windows "elcsesződéséről" - , akkor hamar lehessen folytatni a munkát. Ezzel a módszerrel 30-40 percen belül visszaállítható egy teljes gép, és ott lehet folytatni a munkát ahol 40 perccel korábban abbamaradt.

    Tudom, hogy felmerül a kérdés, hogy de miért pont így, hisz lehetne máshogy is, de erre hosszú lenne a válasz. Az itthoni NAS-omon - ami most éppen 12TB-os- nekem is egyetlen volume (partició) van, mert ennél ez a praktikus. De a munkagépemen nem, és az okok részletezése hisszú lenne. Mindenhol azt kell használni ami az adott körülmények között a legjobb. Légyszi hidd el, hogy megvan az oka, hogy a laptopomon miért ez a rendszer. :)

    [ Szerkesztve ]

    Aki hisz a parajelenségekben, emelje fel a kezem!

  • peterk

    senior tag

    válasz Weareus #11360 üzenetére

    Nos, szerintem nem tudsz olyan lassú SSD-t venni, ami legalább 256-os, és ne rögzítene bármilyen videót röhögve, amit a fraps-al felveszel. :) Nem akarlak számolgatással untatni, de ha a fraps fullhd-ben, abszolút tömörítés nélkül (pixelenként 32 biten) rögzítene, akkor is bőven vinné bármelyik SSD az írást. (De tuti, hogy nem úgy rögzít, legalább egy RLE vagy egy MJPEG tömörítést biztos csinál. ami rögtön legalább harmadolja-ötödöli az írási sebesség igényt az előbb említett abszolút tömörítetlenhez képest.)

    De, ha valóban kell a gyors írás (professzionális munkáknál előfordul), akkor ne 1 SSD-ben gondolkozz, hanem inkább 2db kisebb meghajtó RAID0-ba kötésében. Az gyorsabb lesz, mint bármilyen SSD egyedül önmagában.

    [ Szerkesztve ]

    Aki hisz a parajelenségekben, emelje fel a kezem!

  • peterk

    senior tag

    válasz Weareus #11364 üzenetére

    Tömörítős SSD elvileg nem való ilyen feladatra. Amit könnyű mondani, de annál nehezebb megtenni, mert manapság már a többség használ belső tömörítést. Ami biztosan nem, azok a samsung SSD-k, csakhogy abból a sima basic TLC-s samsung 840 írási sebessége nem egy hűde. A 120-as olyan 130MB/s-el ír. Szóval a legjobb talán 2db 120-as pro 840 lenne, ami viszont nem olcsó mulatság... ;)

    (A raid0 szekvenciális írásban nagyon hatékony, majdnem el lehet vele érni a 2x-es sebességet. Azaz, ha 1 drive mondjuk 250MB/s-el képes írni, akkor raid0-ba kötve ha nem is 500MB/s, de azt megközelítő eredmény elérhető.)

    Aki hisz a parajelenségekben, emelje fel a kezem!

  • peterk

    senior tag

    válasz Fire/SOUL/CD #11371 üzenetére

    "A Samsung 840 120GB 4KQD32 szegmenseben is 130MB/s-el ír, ott, ahol a HDD-d örülsz, ha 1-2MB/s-el. (pont az igen kicsi elérési idő miatt képes erre az SSD)"

    Hozzátéve, hogy a HDD még szekvenciális olvasásban/írásban is csak akkor képes arra a 100+ MB/s sebességre, ha gyakorlatilag tök üres. Ahogy telik, és egyre többet kell írni a lemez belső felére, úgy csökken a sebesség, akár felére-harmadára is.

    (A 130-ra egyébként nem azért írtam, hogy vékonyka, mert vékonyka lenne átlag használatra. Nagyon is brutális az, összevetve bármilyen HDD-vel. De a kérdező tömörítetlen, nagy felbontású videókat akart rögzíteni, ami éppen szekvenciális írásnak felel meg, és oda a pro teljesítménye jobban illik.)

    Aki hisz a parajelenségekben, emelje fel a kezem!

  • peterk

    senior tag

    válasz Vasinger! #11374 üzenetére

    Nem tudni, hogy milyen win7 az. Lehet slipstreamelni olyan win7-et, amiből ki van irtva millió dolog, és akkor villámgyorsan feláll az is. Demózni jó vele a boot időt. :)

    Aki hisz a parajelenségekben, emelje fel a kezem!

  • peterk

    senior tag

    válasz Weareus #11378 üzenetére

    Ja, hogy akár 2db 256GB-os is szóba jöhet? Akkor ahhoz már a sima basic is jó lehet!

    A 130-as írási sebességet a 120 gigásra értettem. A 250GB-os basic samsung már 250-260MB/s-al ír, ebből kettőt raid0-ba kötve közelítheted az 500MB/s-t ami már bőven elég mindenre. Olvasásban meg kiveri a szemed, mert egy drive is képes szekvenciálisan 500MB/s körül olvasni, raid0-ba kötve meg ez közel duplázódik. :)

    Aki hisz a parajelenségekben, emelje fel a kezem!

  • peterk

    senior tag

    válasz Weareus #11381 üzenetére

    Sok program választásod nincs, mert az alaplapod sata vezérlőjének raid driverét kell felrakni. (Esetedben ahogy olvasom - nem ismerem az alaplapodat - van intel és marvel vezérlő is rajta. Én az intellel kezdeném.)

    A másik megoldás, hogy egyszerűen rádugod simán és a windows lemezkezelőjében hozol létre un. "átnyúló kötetet", Ez utóbbi esetben annyi feltétel van, hogy a lemezeket dinamikus lemezzé kell konvertálnod (ugyanott), hogy a windows beépített raid funkcióit tudd használni. Mivel külön adatlemezekről lesz szó, ez nem kunszt. Két jobbklikk a két lemezen és pár másodperc.

    Aki hisz a parajelenségekben, emelje fel a kezem!

Új hozzászólás Aktív témák