Új hozzászólás Aktív témák
-
Sárpac
nagyúr
Két egyforma kártya!
A szoftver csak kiolvassa akkor most szoftverben van beállítva vagy sem?
Kicsit nem értelek!Én szerintem bele van sütve gyárilag minden gpuba egy bitállapot(tdp miatt is kell, hogy legyen) amit aztán a szoftver kiolvas és az alapján állítja be a megfelelő feszültségeket!
Alapfesz alatt a maximumon túl!
-
Abu85
HÁZIGAZDA
A szoftver csak kiolvassa. Illetve gyakorlatban a driver olvassa ki, mert a hardvert nem lehet csak úgy közvetlenül elérni. Ha a mérő rosszat mutat, akkor azt a szoftver rosszul közli. Esetleges gond lehet még az átalakítással, így a szoftveres eredmény eleve nem pontos.
A GPU kapja a feszültséget nem adja. A vezérlőnek kell megmondani, hogy mekkora feszültségen működik. Ezt a GPU megkapja, örül és számol.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Sárpac
nagyúr
Akkor még mindig itt a kérdés, hogy a szoftver honnan olvassa ki, ha egyszer a bios mind2 karin ua, de a feszek nem?
Tartom, gpuban van egy hardveres besütött érék ami alapján a kártya szoftvere(bios) beállítja a feszt és azt kapja meg gpu utána! Ehhez gpunak meg kell kapnia a minimális 0.95V(gtx560 esetében) induláskor ez alatt nem lehet a 3d fesz sem, ahogy az afterburnerbe sem tudunk a 2d-s fesz alá menni!
Ha állítunk a kártya biosában feszt, akkor a default érték megváltozik, így aztán már a mi általunk beállított feszt fogja kapni, egészen addig amíg ismét egy gyári biosszal felül nem írjuk, vagy vissza nem állítjuk!Alapfesz alatt a maximumon túl!
-
Abu85
HÁZIGAZDA
A driver megcímzi a kártya vezérlőjét, ahonnan kiolvas egy értéket (bináris). Azt átalakítja ember számára olvasható értékké, és a szoftver kiírja.
Nem sütnek be oda semmit. A BIOS az ahonnan a vezérlő szerzi az infókat. A BIOS eleve nem írható. Oda nem rakhatsz be csak úgy on-the-fly egy adatot. Az alaplapoknál van egyfajta memória, ami a beállításokat tárolja, de a VGA-knál a BIOS tartalmazza fixen az adatokat is.
Mivel több feszültségérték is tárolható a BIOS-ban, így nem gond, ha a kari több módban működik.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
-
Abu85
HÁZIGAZDA
Amikor kiadnak egy kártyát, akkor annak paramétereit tesztelik. A tapasztalatok alapján felállítanak egy referenciát, amit beállítanak a tömeggyártásra szánt eszközre. Ez az esetleges revíziókkal változhat, ha az első változat mégsem úgy működik, ahogy kellene.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
XoZ
aktív tag
Ha jól tudom, az NVidia a Fermi kártyák óta nem fix 3D feszültséget használ, hanem minden GPU-ra egyedileg határozza meg (hasonlóan mint az Intel processzoroknál a VID). Nyilván van egy minimum és maximum érték, illetve egy lépésköz. Ha a feszültség meghatározását a GPU gyártása során végzik, akkor a kártyagyártók már így kapják meg a GPU-kat. Ha gyári tuningos kártyát készítenek, akkor tesztelhetnek és módosíthatnak a feszültségen, de kisebb tuning esetén lehet, hogy nem törődnek ezzel, nagy tuningnál pedig pl. felhúzzák maximumra. Persze ez mind csak feltételezés, tehát ne vegye senki készpénznek az itt leírtakat
[ Szerkesztve ]
-
Sárpac
nagyúr
Nah ezzel már egyet tudok érteni, szerintem is maga az nvidia gpu gyártó süti bele a megfelelő fesz értékhez meghatározásához szükséges bit értéke,t és az lesz a default fesze a gpunak. A partnereknek semmi dolguk sincs csak összerakják a kártyát dobnak rá egy bioszt és piacra küldik!
Alapfesz alatt a maximumon túl!
-
-
fsb1000
nagyúr
ja.... és a "VID" értékek meg rosszul olvasódnak ki ezért találkozunk mindenféle értékekkel.
furcsamód ált. 5-el osztahtó értékek.---
Az utóbbi 2 hónapban 4 nagy szöget vertem a halódó NVIDA koporsójába.
Gondolom emléxel még a GTX470-es fórumra. Szóval 2 db 460 1 db 560 és a végén GTX570Ez utóbbi csak azért, hogy megnézzemn mennyi igazság volt az akkori szakszövegeidben, amelyek szerint a fermiről majd letiltogatják a fölösleges cuccokat és igy lesz használható GPU.
Hát jelentem 570-ben maradt még elég CUDA, de lehet ez sem VGA piacra készült termék csak álcázzák a termékvonal csödjét vele.
Persze az is lehet, hogy cselből átketresztelték GF 100-at 110-re és a széleiből lereszeltek valamennyit ne legyen már olyan sok tranzisztor rajta.
A tesztoldalakat meg a szakmagazinokat lefizeti az NV hogy hamis blokdiagrammokat mutassanak be, nehogy valaki felfedezze, hugy tulképpen ugyanarról a tálcáról pattintják le a GF110-et mint a az eredeti fermit.[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Attól függ, hogy milyen revízió a két kártyád. Azonos termékvonalon belül vannak eltérő revíziók. Gondolom rájöttek, hogy 1 V alatt nem sok termék stabil, így lett egy új rev.
(#2415) fsb1000: Nem tudom, hogy ez hogy jött ide, de nem az NV megy csődbe. A VGA-piacnak van baja. Ezért kap majd a Maxwell Denver CPU-kat. [link] Önmagában képes lesz operációs rendszert futtatni.
A GTX 570-ben például abban különbözik a Tesla és a Quadro kártyáktól, hogy nem DX11-es terhelés mellett négy órajel alatt dolgoz fel egy háromszöget, míg a Quadro és a Tesla egy órajel alatt csinálja ugyanezt. Ezenkívül az ECC támogatás is le van tiltva, de már mondtam, hogy ezek nem lényegesek egy VGA-nál.
A GF100 és a GF110 kvázi megegyezik. A tranzisztorsűrűség csökkent a GF110 esetében és ez a lapka már teljes sebességgel kezeli az FP16-os textúrákat.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Az elég nagy gáz. Főleg az 1,037-es. 0,5 V különbség már komolyan megváltoztatja a fogyasztást. Persze nem referenciatermék, de a Giga odafigyelhetne arra, hogy legalább revízión belül egyezzenek a termékek.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Sárpac
nagyúr
Fogyasztásban 1Wattal sem evett többet az 1V-ostól! Kimértem!
Pont azért különbözőek a feszek, hogy az egyes kártyákon kialakuló nagyobb szivárgási áramok miatt be tudják szabályozni a TDP értéket! Ugyanis, azt te is tudod, hogy amelyiken nagyobb a szivárgási áram az többet eszik, ezt pedig feszültség csökkentéssel remekül lehet szabályozni, és ezt az nvdia gpu gyártója állatja be a gpukon a tesztek során!Alapfesz alatt a maximumon túl!
-
Abu85
HÁZIGAZDA
Harmadik generációs chipekről beszélünk. Világos, hogy az NV rosszul kezdte a 40 nm-ert, de kizárt dolog, hogy ennyire szar legyen a chipek termikus varianciája. Még első generációs lapkánál oké, de harmadiknál kizárt. Egy waferen belül 5% eltérést aláírok, de 20-25%-ot, amit feszültséggel kell korrigálni már nem.
A fogyasztásban is TDP keret van, tehát az arra szolgál, hogy a termék azt nem lépi túl.Az NV nem szállít külön OC-s GPU-kat. Nem is állítanak semmit feszültségre, mert a GPU-ban ez nem lehetséges. Javaslatot tesznek a gyártóknak, hogy melyik az a feszültség, amivel menni fog a leszállított GPU.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Brekkk
senior tag
Ha normál ipari felhasználásnak vesszük a VGA gyártást is, akkor szinte biztos, hogy van előteszt. Máskülönben minek lenne a minőségbiztosítási osztály a cégeknél
Gondolom véletlenszerű mintavétel van, a legyártott szériákból. Mondjuk 100000 db-ból letesztelnek kb 100 db-ot. Ez a mennyiség már bőven behatárolja a gyártott széria lehetőségeit. Innentől kezdve, a vevő a gyártott termék specijének ismeretében épít belőle kártyát. Ebben lehetnek hibás darabok. Hiba nélküli termelés nincs. Ha visszajön gariba a gyártóhoz sok kártya akkor majd utána kisakkozzák miért is roszz. Ha GPU hiba legnagyobb hányadban akkor az Nvidia állja a számlát. Ha összeszerelési hiba akkor a gyártó, egyéb hiba esetén az egyéb beszállító fizet. 3-5 %-os hibaarány gyárilag be van építve az árba szinte bitos. A termelés is ilyen toleranciával mehet minimum.Ha van köztünk mikroelektronikai minőségbiztosítási mérnök, elmondhatná nekünk laikusoknak, hogy is megy ez. Milyen PPM-el dolgoznak az elektronikai cégek.
Nagyon valószínű, hogy a VGA BIOS-ában is le van letárolva a GPU fesz igénye, de biztos, hogy a GPU-ban is, mint a CPU-k VID-je, tipusjelzése, minden adata, és ez 1 indításnál bekerül a BIOS-ba is. Ha tévednék mondjátok meg nyugodtan
-
fsb1000
nagyúr
Az elég nagy gáz. Főleg az 1,037-es. 0,5 V különbség már komolyan megváltoztatja a fogyasztást.
Látod... te csak ütni akarod az NV-t, közben önellentmondásba kerülsz.
Dehogy gáz a különböző fesz hiszen csak rosszul olvasódik ki szerinted.
Mind egyforma....Na... teccik érteni
-
Abu85
HÁZIGAZDA
válasz fsb1000 #2424 üzenetére
Ki beszél itt az NV-ről? A gyártó szabja meg a GPU feszültségét. Az NV csak egy ajánlást ad, de azt csak a referenciakártyákon kell betartani. Mivel Giga OC-s termékről beszéltünk Sárpaccal, így eleve kizárhatjuk a referenciát.
Az egy dolog, hogy a szoftveres mérés nem mérés, de Sárpac azt írta, hogy az 1 V-ra módosított BIOS-szal változott a fesz. Bár a GPU-z esetében erős a gyanúm, hogy nem mér semmit, hanem simán kiolvassa a BIOS-ban beállított paramétereket.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Annyit főznék hozzá, hogy hiba nélküli gyártás akkor lenne, ha a legyártott termékeket tesztelnék gyártás után. Ugye ez volt az alapkoncepció, amire azt mondtam, hogy nincs tesztelés, hanem tömeggyártásból megy a dobozba és el kell adni.
GPU VID-re nincs szükség. A CPU VID azért kell, mert az alaplapba belerakod a procit, vagyis te választod meg az alapokat. GPU-t viszont senki sem vásárol, hanem komlett VGA-ban veszik meg az emberek. Mivel a GPU ezen fizikailag cserélhetetlen, így a GPU VID is szükségtelen.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
fsb1000
nagyúr
Biztos én értettelek félre és mégsem a mérés rossz...
Idézem:Jellemzően a mérés rossz. Ez olyan dolog, mint a kisgépem, amiben 35 fokos nyári melegben ír a szoftver a proci hőmérsékletére 10 fokot. A mérő durván alámér
--
Gondolom a topiklakók is azért linkeltek eredményket, hogy egymásnak bizonyítsák nem egyformák a VID-ek.
[ Szerkesztve ]
-
Sárpac
nagyúr
20-25% miből? 10% alatt van a fesz ingadozás(0.9625 V - 1.0500 V)!
GPU-ban simán lehet szvsz, valahol olvastam is róla ha megtalálom belinkelem!"GPU Device Id: 0x10DE 0x1200
Version: 70.24.11.00.01
GV-N560OC-1GI/F11
Copyright (C) 1996-2010 NVIDIA Corp.
GF104B Board - 10400050
Performance Level 0
Core Clk: 51.00 MHz
Mem Clk: 68.00 MHz
Shader Clk: 101.00 MHz
Voltage: 0.9500 V
Performance Level 1
Core Clk: 405.00 MHz
Mem Clk: 162.00 MHz
Shader Clk: 810.00 MHz
Voltage: 0.9500 V
Performance Level 3
Core Clk: 900.00 MHz
Mem Clk: 1002.00 MHz
Shader Clk: 1800.00 MHz
Voltage: by ASIC (0.9625 V - 1.0500 V)
User Voltage limit: below 1.1500 V
"Alapfesz alatt a maximumon túl!
-
Abu85
HÁZIGAZDA
válasz fsb1000 #2427 üzenetére
Jól látod. Jellemzően a szoftveres mérés rossz. Ennek köszönhető, hogy nem alapoznak a műszerészek a szoftverből kiolvasott mérésekre. A GPU-Z szerintem a BIOS-ból olvassa ki a feszültséget, a driveren keresztül. Azért ad ilyen ezredértékre pontos paramétert minden kártyánál.
A hőmérséklettel kapcsolatos szoftveres mérés jól mutatja a gondokat. Nincs az a léghűtő, ami 35 fokos szobahőmérsékleten 10 fokra hűti a procit. Fizikai képtelenség a szobahőmérséklet alá menni.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
TTomax
nagyúr
0.05V,és az lópikula...
(#2431) Abu85
dehogy sok... bőven benne van a szórásban.... 0.1V-ig nincs gond,ha az intelnél nincs gond akkor itt sem lesz,gyanitom azért van ilyen szórás mert nincs annyi fázis,mert ez nem cpu,na meg voltera sincs az nv-ken.. a vrm miatt van az egész szerintem.[ Szerkesztve ]
★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"
-
Abu85
HÁZIGAZDA
Elfelejted, hogy a feszültség emelése négyzetesen növeli a fogyasztást.
Voltage: by ASIC ... ergo nem az NV, hanem a Gigabyte dönt a feszültségről, hogy mit ír a BIOS-ba. Az NV csak ajánl egy értéket. Ami nem referenciakártya arra nem kötelező ezt alkalmazni. Ettől függetlenül az NV-nek kötelező a GPU-kat arra a paraméterre tesztelni.
(#2430) TTomax: Köszi a javítást. Bár a Giga BIOS-át nézve majd 0,1 volt lehet az eltérés. Ez azért komoly különbség.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
[link] A kártyák revíziójával. Ahogy a kolléga is írta az elején tesztelnek, aztán már az egész szúrópróbaszerű vizsgálatokra épül. Ha van baki, akkor új revízió. Egyszerűen nem tesztelnek napi több ezer legyártott VGA-t. Nincs rá emberi kapacitás.
(#2430) TTomax: A mai CPU-k eleve nem tartalmaznak állandó feszültséget. Ha azt állítod az alaplapon, akkor a maximumot állítod. Itt GPU-ról van szó, ahol nincs lehetőséged a feszültség dinamikus szabályzására egy adott módon belül. Erre még a PowerTune sem képes, túl nagy a kockázata az instabil működésnek. Az a +0,1 V komoly 20-25%-os fogyasztásnövekedést jelent.
Csak arra gondolj, hogy az AMD HD 6990-en a tuningbios 0,05 volttal növeli a feszültséget, és rögtön kapod a +75 wattot (TDP szerint), ami a gyakorlatban több is lehet.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Sárpac
nagyúr
"Nagyon valószínű, hogy a VGA BIOS-ában is le van letárolva a GPU fesz igénye, de biztos, hogy a GPU-ban is, mint a CPU-k VID-je, tipusjelzése, minden adata, és ez 1 indításnál bekerül a BIOS-ba is. Ha tévednék mondjátok meg nyugodtan."
Ez is onnan van idézet!
Én úgy gondolom, hogy maga az nvidia gpu gyártója állít be egy működési feszültséget, ezt valamilyen bites állapotokkal beégeti a gpu-ba, majd onnan ebből a bios induláskor kiolvassa ezt és az lesz a default fesz. Ha nem így lenne akkor 1V-osnak kellene lennie a másik kártyának is, de láthatod nem az, hanem maradt a gyári!A fesznél igazad van tényleg négyzetes mivel egyenfesz, de a szivárgási áram a magasabb vides gpuknál sokkal kisebb így nem lesz nagyobb a fogyasztása.
Hiába magasabb a fesz mivel szorzat tényező a felvett áramerősség is, ami a magasabb vides gpuknál kisebb.[ Szerkesztve ]
Alapfesz alatt a maximumon túl!
-
Abu85
HÁZIGAZDA
Mi értelme letárolni a VID-et egy olyan termékre, ahol a GPU-t képtelen vagy fizikailag cserélni? Ez nem processzor, amihez külön vásárolhatsz alaplapot. Itt a VID tárolásának semmi jelentősége. Nem is csinálják.
A szivárgási áramnak egy harmadik generációs lapka esetében nem biztos, hogy érdemes ennyire komoly jelentőséget adni. Mondtem, hogy első generációnál még ok, de három generáció alatt már be lehet úgy állítani a gyártástechnológiát, hogy ez ne jelentsen problémát. Egyszer mellélőhetnek a mérnökök, sőt még a második is talán belefér, de harmadikra nagyon gáz lenne.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
TTomax
nagyúr
Elbeszélünk egymás mellett...egy digit pwm-el sokkal kisebb lépésekben lehet állítani a feszt, na most ugye ez nincs az Nv karikon...evidens,hogy ha nem stabil akkor fesz kell még,de mivel csak nagyobb lépésben lehet, igy hát vcore difik is nagyobbak lesznek.Abba most ne menjünk bele,hogy az AMD egy dual gpu-s szörnynél mennyit nyer a vcore játékkal... ott van jelentösége,ott nyerhet 75W-ot,de az 560 esetében ez szerintem 15-20W-on belül mozog,ami belefér a szórásba...egyébként pedig 0.1V nem okoz 20-25% fogyasztás növekedést egy 560-on...nem tudom mennyi az 560 tdp-je... mondjuk 170W,hát nem hinném hogy ez felkúszna 205-220W-ra... az nagyon sok...
[ Szerkesztve ]
★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"
-
Sárpac
nagyúr
Téged nem lehet meggyőzni!
Mi értelme? Hát pont az amit te állítasz, hogy ne kelljen a partnernek külön tesztelnie, csak rádobja a gpukat a nyákra és mehet is csomi után ki a bótba!
Szivárgási áram örök probléma lesz amíg félvezetőt használnak, pár százalék különbség nem sok, pont azért, hogy ne kelljen kidobni a magasabb szivárgási áramot felvevő gput, egyszerűen visszaveszik a feszültségét, hogy beleférjen a tdpbe és slusz mehet a partnerhez, ezért vannak a különböző feszes vgak azonos típuson belül!Alapfesz alatt a maximumon túl!
-
Brekkk
senior tag
Az ASUS, GIGABYTE, ZOTAC stb, mind csak összeszerel, és tervez. Semmi köze a termékeire rakott alapelemek gyártásához, úgymit ellenállás, kondenzátor, tekercs, RAM.
Ezt mind készen veszi, szigorú beszállítói tanusítványok alapján, amire a beszállító tartozik felelősséggel. Minden összeszerelő cég ezel alapján a tanusítványok alapján dolgozik, és megbízik a beszállítójában. Persze csinálnak kontroll ellenőrzéseket, mert néha a beszzállítót is ellenőrzik, hogy a terméke megfelel a speckónak, de ez nem mindenneapos.
Az összeszerelők, a saját végtermékeiket ellenőrzik. De itt is csak mehatározott darabszámot, véletlenszerű kiválasztással. Ha 100000 ből kiválasztva 100 db-ot és abból 98 jó akkor a szállítmány kimegy a jövendő vevőkhöz. Olyan 5-6 %-os hibaarány lehet az az érték amikor a teljes legyártott mennyiséget bezúzzák. (Lásd INTEL hibás chipset).
Nem tesztelik le a teljes szállítmányt. Rengeteg idő, energia és pénz. Ha komolyan akarsz olyan hibákat keresni amiről írtok, hogy 1-2 óra után egyszer megfagy a kártya, ipari körülmények között lehetetlen. 100000 kártyára vetítve elviselhetetlenül magas összeg. Olcsóbb újra legyártani a terméket. Ne abból induljatok ki, hogy 55-65000 FT egy ilyen kártya a boltban, Az előállítási költsége, még a 10000-15000-et sem biztos, hogy eléri darabonként.
Mivel itt leginkább csak azt olvasni, hogy ennek meg annak rossz volt a kártyája nem jelent semmit. Annyiféle hibaok lehet a VGA-n kívül, hogy csak na. Azok az emberek panaszkodnak, akiknek rossz a kártyájuk, de akiknek jó nem is biztos, hogy rátalál erre az oldalra. Nekem is MSI 560 OC-m van és tökéletes, kb 1,5 hónapja. -
Abu85
HÁZIGAZDA
A partnereknek mindenképpen tesztelni fogják a nem referencia megoldásukat. Ha átment az ellenőrzésen, akkor mehet a tömeggyártás és utána csak szúrópróbaszerű teszt.
Félreérted a VID-et. Az NV semmit sem fog a gyárilag ajánlott feszültség felett-alatt tesztelni. Nekik éppen elég az, hogy a kari teljesíti a gyári specifikációkat. Ennek megfelelően a termék hibátlan, mehet a gyártókhoz.Csak nem mindegy, hogy mekkora probléma. Egy harmadik generációs lapkánál nem lehet nagy baj, mert a gyártósor kiforrott, így a termikus variancia is bőven kezelhető.
(#2436) TTomax: A digitális PWM-nek nem az a fő előnye, hogy nagyon pontos. A nem digitális áramkörök is kellően pontosak. A fő érv mellette az alacsony energiaigény (vagyis magas a hatásfoka). Az ellenérv, hogy mocskosul drága. Ezért alkalmazza az AMD csak a HD 6990-hez. A többi terméknél nem nyújt akkora előny, hogy megérje.
Pedig felkúszik 200 watt fölé. Ennek a fizika az oka.(#2438) Brekkk: Pontosan. Azoknak az embereknek is azért volt gyári hibájuk, mert nem tesztelik le a teljes tömeg gyártott készletet. Sokkal olcsóbb felvállalni a rizikót és a garanciát. Alapvetően eleve nem beszélünk magas hibaarányról.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Sárpac
nagyúr
-
fsb1000
nagyúr
Jól látod. Jellemzően a szoftveres mérés rossz
Nem szeretem ezt a stilust... ne nézzük már egymást sült hülyének.
Nem én látom igy, hanem te írtad. I D É Z T E M__ T Ő L E D
Én sehol sem írtam, hogy mérési hiba okozza a VID szórását.Már csak szófacsarás amit csinálsz, ahelyett hogy mondanád: bocs fiúk ezt a mérési hibát az újamból szoptam és nem jött be.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Az NV igen, mivel ők beszállítók. Ha a gyártást szakaszokra osztjuk, akkor az alkatrészek gyártása és azok összerakása a két fázis. Az alkatrészt gyártó vállalat tesztel minden alkatrészt, míg az összerakó már nem teszteli a végeredményt, mert a logika azt diktálja, hogy ha az alkatrészek külön-külön jók voltak, akkor együtt egy előzetesen kitesztelt fejlesztésen jók lesznek, vagyis a tömeggyártás során felmerülő problémák száma elméletben nulla, a gyakorlatban pedig minimális.
A gyártástechnológiákat is állítsd generációkba. Egy gyártástechnológia bevezetése az elején gázos. Nincs kidolgozott alap, a gyártósorok kalibrálása is gyerekcipőben jár, így az első generációs GPU-k esetében valóban figyelni kell arra, hogy a lehető legtöbb termék beleférjen a TDP keretbe. Ezt úgy alakítja ki a cég, ahogy nekik a legjobb. A második generációs chipek esetében már van tapasztalat, vagyis maguk a fejlesztések, és a gyártósorok problémái is csökkennek. A fizikai hibák száma minimális lesz, és a termikus variancia is tökéletes határokon belül marad. A harmadik generációs chipek esetében (itt tartunk a TSMC 40 nm-es HP technológiájával) már a lehető legalacsonyabb a hibaarány, minden szempontból. Ezért készül teljes értékű lapkákból a GTX 550 (GF116) és a GTX 560 (GF114). Nincs szükség egy köztes sorozatra, ahova a selejtek mennek, mert egyszerűen alig van selejt. Ahol probléma lehet az a GF110, mert ott nagy a lapkaméret, de az is bőven kezelhető egy apró blokk letiltásával.
Ha a GPU az NV tesztjein nem teljesíti a referenciában megszabott x órajeleket, és y feszültséget, akkor azt le se szállítják. Mivel harmadik generációs chipekről beszélünk, nagyon kevés olyan termék lesz, amit nem lehet leszállítani. Eleve tesztelgetni a teljes termékskálát, hogy a referenciaparaméterek mellett még milyen módban működik jól, elképesztő erőforrást jelent. Fel kell állítani egy második tesztsort, amit be kell kalibrálni a kívánt tesztre. Ugye itt eleve nem emberek végzik az ellenőrzést. A termékek tucatjait behelyezik a tesztgépbe, és az elvégzi a tesztet. A végén kiadja, hogy melyik termék ok, és melyik nem. A nem jó terméket nagyon nehéz lenne tesztelni, mert két külön kalibrált tesztsor elképesztő kiesést jelentene a napi tesztkapacitásban, hiszen annak a tesztsornak beállítása nem jó a referenciatesztre.
(#2441) fsb1000: Ha nekem nem hiszel, akkor kérdezz meg egy műszerészt a szoftveres mérés pontosságáról. A tápos topikokban sokat hozzáértő felhasználót találsz. Én továbbra is fenntartom, hogy a szoftveres mérés nem pontos.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Inkább fogalmazzunk úgy, hogy 100 GPU-ból. Kb. 2-3 lesz kuka nagyon rossz esetben. Jó esetben 1, legjobb esetben pedig egy sem. Most ilyen mennyiségre beállítani egy teljes tesztsort pazarlás. Nyersz vele hetente párszáz GPU-t, de elveszted a napi tesztkapacitásod nagy részét. Összességében a leszállított termékek mennyiségében mínuszban leszel, ami nem cél. Emellett bizonyos termékek gyári selejtnek számítanak, vagyis a TSMC vállalja a felelősséget a sikertelen chipért.
Olyan nincs, hogy GTS 550. A GTX 460-hoz már nulla GF104-es GPU készül. Az egy kifutó széria.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
ZozzHUN
addikt
Srácok meglett a gariztatás a GTX560-al, de nincs cseredarab és kis ráfizetéssel lehetőségem volt másik kártyára váltani, köszöntem az eddigi infókat, és remélem másoknak továbbra is jól működik ez a bivaly kártya
[ Szerkesztve ]
-
SZKEBE75
senior tag
sziasztok!
Azonos órajelen mivel gyorsabb egy gtx560 a gtx460-hoz képest?
pc/N100DC-MZ/X-JCAT-MZ/X-Daphile--RME ADI 2 DAC fs-MZ/X---Focal Alpha 50 Evo---IE 900 -- viablue
Új hozzászólás Aktív témák
- Gaming notebook topik
- Realme GT Master Edition - mestermunka
- Foxpost
- Drágább lett a Pixel 8a
- D1Rect: Nagy "hülyétkapokazapróktól" topik
- Netfone
- Gmail
- Hivatalosan is reagált a Core CPU-k stabilitási gondjáira az Intel
- Bugok, problémák a PROHARDVER lapcsaládon
- Megérkezett a Google Pixel 7 és 7 Pro
- További aktív témák...
- ASUS GeForce GTX 660 DirectCU II OC 2GB GDDR5 192bit lVideokártya
- XFX AMD Radeon HD 6870 DD 1GB DDR5 Dual DP HDMI PCI-E videokártya
- MSI RTX 3070 8GB Gaming X Trio - 1 év magyar garanciával - eladó!
- Eladó ASUS GeForce GTX 1660 Super 6GB Phoenix videokártya (PH-GTX1660S-6G)
- ÚJ EVGA GeForce RTX 3080 FTW3 ULTRA GAMING 10GB GDDR6X (10G-P5-3897-KR) Videokártya
Állásajánlatok
Cég: Ozeki Kft.
Város: Debrecen
Cég: Promenade Publishing House Kft.
Város: Budapest