- Windows 11
- Mozilla Firefox
- Telekom otthoni szolgáltatások (TV, internet, telefon)
- Mesterséges Intelligencia topik
- Proxmox VE
- Ubuntu Linux
- OpenWRT topic
- Linux kezdőknek
- Kodi és kiegészítői magyar nyelvű online tartalmakhoz (Linux, Windows)
- Robotkart irányított a majom a kínai Neuralink agyi chipjével
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
válasz partyphoto #86 üzenetére
Ennyire sokat ne várj tőle, mert csalódni fogsz.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz gainwardgs #89 üzenetére
Túl nagyok az elvárásaid.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
-
Abu85
HÁZIGAZDA
Nem vagy tisztában a költségekkel. A HD 6900 a GTX 560 szintjén gyártható, ezért jön azonnal egy csomó OC-s modell, mert kicsi a haszon. A teljesítményt pedig majd meglátjátok a tesztben. Az meg, hogy az NV driver fejlődik, nem jelenti azt, hogy a Catalyst egy helyben toporog. A HD 5870 szépen elhúzott a GTX 470-től, ez a realitás, de ezt is meglátjátok a tesztben.
Amúgy nem értem miért kell az elvárásokat az egekbe tolni. Várjátok azt, hogy majd mekkora HD 6950 verés lesz, aztán kiderül a valóság, és mindenki csalódik. Közben meg lehet, hogy a kártya az árához képest tök jó. Nem teszel jót ezzel az NV-nek.Maradjunk annyiban, hogy gbors nem is tesztelte a HD 6970 ellen a GTX 570-et. Nem volt kártyája gondolom.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Egyéni döntésed, hogy kinek hiszel. Mi is ugyanúgy mérünk mint mások. Le tudod olvasni az értékeket és a játék beállításait. Amit mi szoktunk csinálni az a 8xAA alkalmazása, amit a külföldi tesztek nem szeretnek. Úgy gondoljuk, hogy ha már 50-60+ fps van, akkor ez nem számottevő tényező.
Egyedül a GTX 560 nem WHQL-lel futott. Ezt nem tudtuk kivédeni, mert nincs hozzá WHQL. Ha nincs WHQL egy kártyánál, akkor az azért van, mert a teszt időpontjában nem volt elérhető ilyen meghajtó. Ezzel nem tudunk mit csinálni.
Nem az NV-nek probléma az ár. A partnereknek. Persze ez NV benyelheti negyedévente a mínuszt a VGA-piacból, a többi üzletág kitermeli a pluszt. A kérdés, hogy a partnereknek mi fogja kitermelni?
(#136) megint én: Igen a házigazdák és a moderátorok már látják.
(#135) rup1u5: Szerintem az.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Hát ha téged érdekel a gyártók érdeke, akkor ne vegyél VGA-t. Itt csak azokat a téves víziókat lenne érdemes elbarikádozni, hogy a PC-s VGA-piac virágzik. Nem, nem virágzik. Ezért mennek a gyártók, és most már az NVIDIA is a platform felé. 2010-ben már láttunk rá két példát, hogy brutálisan számít, hogy kinek a terméke mennyért gyártható. Az XFX a profitot választotta, a BFG-nek pedig túl késő volt. Ezek tények, bármennyire is rossz jövőképet festenek le.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Azok tények. Fogadd el, mert nem tudod meg nem történté tenni őket. Ha a tényekkel szemben állítod be a dolgokat, akkor magadat teszed nevetségessé, lásd az alattad lévő hozzászólást.
A károgást pedig ki kérem magamnak. Én csupán a túlzottan magas elvárásokra reflektáltam. Tök jó a kártya az árához képest, de az itt támasztott igények messze túlmutatnak a valós teljesítményén. Ez nem az NV hibája, hanem azoké, akik a nép fejébe tuszkolják, hogy ez bizony verni fogja a HD 6950-et, meg a GTX 570-et.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Nem mondtam, hogy érdekeljen mi van a háttérben, de ettől még más ezt a témát hozza fel pl.: smkb. Ha nem akarsz erről olvasni, akkor hagyd figyelmen kívül smkb és az én posztomat.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz gainwardgs #152 üzenetére
Addig. Nem tudjuk előrehozni, de ha építesz egy időgépet ... ... na de visszatérve a valóságba, még két óra. Szóljatok a spanoknak is, de bánjatok a szerverrel kíméletesen.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
-
Abu85
HÁZIGAZDA
Ha a Fermi architektúrája a VGA-piacra készült, akkor miért ment tönkre a BFG és miért váltott az XFX? Ezeknek oka van nem, már ha annyira jól megy minden a VGA-piacon.
Persze, hogy van az NV-nek stratégiája. Idén a CES-en be is számoltak róla. [link] Ez az NVIDIA jövője nem a GeForce. Ezt mondjuk már egy ideje, de úgy látom feleslegesen. Platform nélkül már senki vagy a piacon, és ezt tudja az NVIDIA is. Ezért fejlesztenek processzort.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Elmondom, hogy mi a probléma. Ha már a Sandy Bridgeről van szó, akkor érdemes megnézni, hogy a procira épülő gépek 70%-a nem tartalmaz PCI Express slotot, vagyis nem rakhatsz bele VGA-t. És a 70%-ot kell nézni. Érted már mi a baj? Marad egy 30%-os lehetősége az NV-nek, hogy kuncsorogjon a PC-s gyártónál, hogy ugyan rakjanak már a proci mellé egy GeForce-ot. Ez az, ami miatt nem vagy piacképes platform nélkül. Gürizel azért, hogy felszedegesd a morzsát, miközben a kenyeret megeszik azok, akik képesek platformot kínálni. Teljesen mindegy, hogy neked mik az igényeid, a gyártókat az fogja érdekelni, hogy a tömegnek mik az igényei, és ott bizony az IGP-k fejlődésével egyre kevesebbszer szerepel a VGA szó. Ezért épít az NV saját processzort, hogy platformot tudjanak kínálni. A Windows 8 is kapóra jön, mert futni fog ARM architektúrán.
Amúgy szerinted egy olyan cég, aki valóban komolyan gondolja a PC-s gaminget, így marketingel? [link] A srác arca mindent elmond. A PC szar, a kézi kütyü pedig király. Szerinted? Mire akar ezzel utalni az NV?
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A Mercury Research legutóbbi beszámolója szerint az AMD DX11-es piaci részesedése 90%. A Q4-es eredmény még nagyobb, de az már nem csak a VGA-kat számolja, hanem a Fusiont is, vagyis innentől kezdve tényleges, VGA-ra vonatkozó adatot nem kapunk. Hetente 1 millió Brazos platform kell el, ami sajna nagyon megdobja az AMD részesedését. A 2010/Q3 mindenesetre jól mutatja, hogy mennyire kinyílt a Fermi rózsája és letarolta a GPU-piacot. Szintén nézheted a megjelent DX11-es játékokat. 15 darab cím van. 11-ről gondoskodott az AMD, 3-ról az NV, és egy független cím került elő. Tisztán látszik, hogy iszonyatos pénzeket mozgat meg az NVIDIA a PC-s játékok támogatásáért.
Senki sem mondja, hogy zsákutca a GeForce. A VGA-piac a zsákutca, az szűkül rohamosan, és ebbe beletartozik a GeForce is, meg a Radeon és a többi termék. Nem győzőm hangsúlyozni, hogy ezért épít az NVIDIA egy ARM architektúrára processzort. Platform kell, különben nincs jövőd. Továbbra is lesz NV, AMD és Intel. Egyszerűen arról lesz szó, hogy a jövőben NV, AMD vagy Intel platformot veszel. Ha nem érdekel az ARM, akkor vehetsz x86-ot is az AMD-től vagy az Inteltől. Bár szerintem sok hátrányod nem lesz az ARM-ból, bár még nem tiszta, hogy a Win8 miképp emulál majd.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz szasanyi #684 üzenetére
Nem szűnik meg a VGA-k gyártása. Továbbra is építhetsz olyan gépet, amibe pakolsz egy VGA-t. A PC-s gyártók az arányok miatt mellőzik a VGA beépítését, illetve konkrétan a port kialakítását. A Sandy Bridge IGP-je képes annyira, mint egy GeForce GT 210, vagy egy Radeon HD 5450 (most elméletben felejtsük el, hogy a Sandy Bridge termékeket a hibás chipset miatt visszahívták, nyilván ezzel időt nyernek a VGA-k). Ez a teljesítmény benne van a prociba vagyis pluszköltséget nem jelent (a proci árát úgyis kifizeted). A Mercury adatai szerint a legutóbbi mért negyedévben így alakult a VGA-k eladása: 100 dollár alatt - 62%, 100-200 dollárig - 29%, 200-300 dollárig - 7%, 300 dollár felett - 2%, 400 dollár felett nem mérhető két tizedesjegyen belül az adat ... 0,00% van odaírva. Nyilván van eladás, de mérhetetlenül alacsony.
Namost a GeForce GT 210 és a Radeon HD 5450 50 dollár körül szerezhető be. Ez még mindig a piac kb. 40%-a. A CPU-s IGP-k ezt a piacot kiütik, ami marha nagy baj, mert innen sok bevétel származik. Az AMD Llano procija HD 5570-es szintet teljesít, vagyis a piacot 50-55%-on belül kiüti. Ez akkora bevételkiesés a gyártóknak, hogy képtelenség változatlan árakon tartani a VGA-piacot. Következésképpen jön egy kényszerű áremelés, ami szintén piacvesztéshez vezet, de nincs más út. A gyártók nyilván nem fognak a Sandy Bridge-es és a Llano-s gépekbe tenni egy standard 50-70 dolláros VGA-t. Radeont talán, mert a Llano IGP-jének teljesítménye hozzáadódik a Turks GPU-hoz, de egyelőre az Intel eladásai számítanak. Az okok egyszerűek. Egy Sandy Bridge mellé tegyük fel, hogy raksz egy gyorsabb Radeon HD 5570-et vagy GeForce GT 430-at, amik kedvelt megoldások. A termékek beépítése akár 70-80 dollárral is megnövelhetik a gépek teljes előállítási költségét, miközben az extra teljesítmény alapján nem tudsz 70-80 dollárral magasabb árcédulát kiszabni. Az eredmény rögtön az, hogy inkább spórold le a gépről a PCI Express felületet, mert a haszon szempontjából jobban jársz, és még a termék is olcsóbb lesz, vagyis több lesz a potenciális vevő. Gyakorlatilag ezért hagyják ki a Sandy Bridge-es gépek 70%-ból a VGA-t, nem azért, mert olyan jó az SB IGP-je.
Nyilván ezt látja az NV is. Viszik is a fejlesztéseket a mobil irányba (Tegra), majd a PC-s kvázi piacra visszatérnek a Windows 8 megjelenésével egy komplett platformmal.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz szasanyi #688 üzenetére
Az IGP teljesítményében a legerősebb AMD Llano APU kétcsatornás DDR3-1600-as memóriával annyit tud, mint most egy HD 5570 vagy GT430. Akinek több kell, annak VGA-t kell vennie. A fő kérdés ebből a szempontból, hogy az APU-k betörésével megkapod-e majd az általad megjelölt teljesítményt 35-40 rongyért. A kieső bevételeket és nyereségeket, valahogy pótolni kell, és ez egyelőre csak az áremeléssel történhet meg.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz megint én #702 üzenetére
Az a gyerek az NV marketingeszköze volt. Az volt a feladata, hogy a PC-re fintorogjon, míg a kézi kütyüre fülig érjen a szája. Csupán azért került elő, mert érdekes ez a marketing egy olyan cégnél, aki elvileg érdekelt a PC-s játékok területén.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz megint én #781 üzenetére
Azokra a játékokra nem jó az MSAA. Más, post process szintű algoritmus kell, mint amilyen a Radeonok morfológikus szűrése. Ez a Deferred Rendering eredménye. A fázisok összemosásánál elveszik az élsimítás eredménye. Erre vezették be a DX 10.1-ben a Multisample Accest, ami egy speciális fázis, az MSAA-ra. Persze DX9/10 alatt ez nem alkalmazható.
A jövőben a fejlesztőnek kell kezelni az élsimítást, mert ha ezt nem teszik meg, akkor a driverből csak a post process megoldások lesznek életképesek.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz megint én #1148 üzenetére
Ez OC-s kártya? Ha igen, akkor próbáld már meg visszavenni az órajeleket az NV által kiértékelt referenciára. Ez 820/1640 mag és shader, illetve effektív 4000 MHz memória.
Nem kell megijedni, nem kell így használnod a kártyát, csak a próba miatt, mert a gyári OC-s termékekkel szoktak ilyen hibák lenni. Sajnos az OC-t még mindig nem teszteli senki, így az még gyári OC mellett is zsákbamacska. Persze a garid él a cserére.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz szasanyi #1147 üzenetére
Csinálj egy config.txt állományt az exe mellé. Ebbe ezt írd bele:
Width: 1920
Height: 1200
Texture Quality: 3
Shadow Quality: 3
Anisotropic Filtering: 16
SSAO: 1
Vertical Sync: 0
DX11 Tessellation: 1
DX11 Advanced Shadows: 1
DX11 MSAA Samples: 4
Utána az exét indítod a -config=config.txt paraméterrelA paramétereket változtathatod. A 0 a kikapcs és az 1 a bekapcs. A textúránál és a shadownál értelemszerűen az 1-2-3 sorrendben nő a minőség. Az MSAA lehet 1, 2 és 4, az Anizónál szintén a szokásos 2-4-8-16 lépcső.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
-
Abu85
HÁZIGAZDA
Amikor szervizes voltam, akkor voltak ilyen hibáim. Megkértem, hogy hozzák be azt a programot, amivel fagy. Ha ott sem jött elő, akkor bekértem a teljes gépet. Mindig sikerült megoldani a gondot.
Egyébként általános javaslatom, hogy ha nem akarod szívatni magad, akkor a gyári OC-s termékeket kerülni kell. Kb úgy működik a dolog, hogy a chipgyártó teszteli az refórajelre a tokozott GPU-t. Ezt leszállítja a gyártónak, akik rárakják az OC-s termékre, és felnyomják az órajelet. Kezdő mérnök kérdezheti, hogy nem-e kellene tesztelni, majd a rutinosabb rávágja, hogy "bírja ez".Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Sajnos semmit sem tesztelnek. Ha tesztelnék, akkor drágább lenne. Meg eleve logikátlan az egész. A termék részegységeit teszteli a beszállító. legyártott kártyánként újratesztelni csak anyagi teher, mert nagyon nagy valószínűséggel jó mint. Ahol ennek jelentősége lenne azok az OC-s termékek, de ott is arányaiban kevés a hiba, így inkább érdemes bevállalni a garis szopást, mivel a tesztelés összességében drágább lenne.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Onnan, hogy az NV megmondja a referenciakártyáknál a feszültség értékét. Ezt a BIOS-ban beszabályozzák. Az OC-s termékeknél elvégzik a referencián a tesztet, ha azon működik a beállítás, akkor a többin is működnie kell (kisebb, nagyobb selejt aránnyal)
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz fsb1000 #2392 üzenetére
Jellemzően a mérés rossz. Ez olyan dolog, mint a kisgépem, amiben 35 fokos nyári melegben ír a szoftver a proci hőmérsékletére 10 fokot. A mérő durván alámér.
Mert a szoftverben azt állítottad be. Minden amit szoftver segítségével kalibrálsz hibás adatokra támaszkodhat. A helyes adatot csak akkor kapod meg, ha multiméterrel kiméred a kártyáról.
Mivel minden szoftver ugyanonnan olvassa az adatot, ezért a fals mérést ugyanúgy adják vissza. Ha biztosra akarsz menni, akkor multiméter.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Nem a feszültségszabályzással van a gond. Az pontos. A mérés pontatlan, ami átmegy a szoftveren. Ha a BIOS-t felülírod, akkor annyi lesz a fesz, amit beleírsz. Ha szoftveresen szabályzod, akkor már lehet eltérő érték.
(#2395) fsb1000: Igen, rámérsz a referenciatermékre, és beállítod a mérőket. És mi van a többi százezer termékkel, amit eladsz? Mindegyik mérőjét konfigurálod egyesével?
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A szoftver csak kiolvassa az értéket. Esetleg kerekít, de nem mindig. Biztos, hogy azonos széria azonos revízióiról van szó?
(#2399) fsb1000: Amíg a cégek pénzből élnek, addig az számít, hogy a minőség ellenőrzés drága. Nagyságrendekkel drágább, mint az ellenőrzés kihagyása, és az ezzel keletkező garanciális költségek felvállalása. Lásd Eagl3 esete.
Hozz hőmérőt, és ellenőrizd a 10 fokon működő procimat nyári kánikulában.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A szoftver csak kiolvassa. Illetve gyakorlatban a driver olvassa ki, mert a hardvert nem lehet csak úgy közvetlenül elérni. Ha a mérő rosszat mutat, akkor azt a szoftver rosszul közli. Esetleges gond lehet még az átalakítással, így a szoftveres eredmény eleve nem pontos.
A GPU kapja a feszültséget nem adja. A vezérlőnek kell megmondani, hogy mekkora feszültségen működik. Ezt a GPU megkapja, örül és számol.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A driver megcímzi a kártya vezérlőjét, ahonnan kiolvas egy értéket (bináris). Azt átalakítja ember számára olvasható értékké, és a szoftver kiírja.
Nem sütnek be oda semmit. A BIOS az ahonnan a vezérlő szerzi az infókat. A BIOS eleve nem írható. Oda nem rakhatsz be csak úgy on-the-fly egy adatot. Az alaplapoknál van egyfajta memória, ami a beállításokat tárolja, de a VGA-knál a BIOS tartalmazza fixen az adatokat is.
Mivel több feszültségérték is tárolható a BIOS-ban, így nem gond, ha a kari több módban működik.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Amikor kiadnak egy kártyát, akkor annak paramétereit tesztelik. A tapasztalatok alapján felállítanak egy referenciát, amit beállítanak a tömeggyártásra szánt eszközre. Ez az esetleges revíziókkal változhat, ha az első változat mégsem úgy működik, ahogy kellene.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Attól függ, hogy milyen revízió a két kártyád. Azonos termékvonalon belül vannak eltérő revíziók. Gondolom rájöttek, hogy 1 V alatt nem sok termék stabil, így lett egy új rev.
(#2415) fsb1000: Nem tudom, hogy ez hogy jött ide, de nem az NV megy csődbe. A VGA-piacnak van baja. Ezért kap majd a Maxwell Denver CPU-kat. [link] Önmagában képes lesz operációs rendszert futtatni.
A GTX 570-ben például abban különbözik a Tesla és a Quadro kártyáktól, hogy nem DX11-es terhelés mellett négy órajel alatt dolgoz fel egy háromszöget, míg a Quadro és a Tesla egy órajel alatt csinálja ugyanezt. Ezenkívül az ECC támogatás is le van tiltva, de már mondtam, hogy ezek nem lényegesek egy VGA-nál.
A GF100 és a GF110 kvázi megegyezik. A tranzisztorsűrűség csökkent a GF110 esetében és ez a lapka már teljes sebességgel kezeli az FP16-os textúrákat.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Az elég nagy gáz. Főleg az 1,037-es. 0,5 V különbség már komolyan megváltoztatja a fogyasztást. Persze nem referenciatermék, de a Giga odafigyelhetne arra, hogy legalább revízión belül egyezzenek a termékek.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Harmadik generációs chipekről beszélünk. Világos, hogy az NV rosszul kezdte a 40 nm-ert, de kizárt dolog, hogy ennyire szar legyen a chipek termikus varianciája. Még első generációs lapkánál oké, de harmadiknál kizárt. Egy waferen belül 5% eltérést aláírok, de 20-25%-ot, amit feszültséggel kell korrigálni már nem.
A fogyasztásban is TDP keret van, tehát az arra szolgál, hogy a termék azt nem lépi túl.Az NV nem szállít külön OC-s GPU-kat. Nem is állítanak semmit feszültségre, mert a GPU-ban ez nem lehetséges. Javaslatot tesznek a gyártóknak, hogy melyik az a feszültség, amivel menni fog a leszállított GPU.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz fsb1000 #2424 üzenetére
Ki beszél itt az NV-ről? A gyártó szabja meg a GPU feszültségét. Az NV csak egy ajánlást ad, de azt csak a referenciakártyákon kell betartani. Mivel Giga OC-s termékről beszéltünk Sárpaccal, így eleve kizárhatjuk a referenciát.
Az egy dolog, hogy a szoftveres mérés nem mérés, de Sárpac azt írta, hogy az 1 V-ra módosított BIOS-szal változott a fesz. Bár a GPU-z esetében erős a gyanúm, hogy nem mér semmit, hanem simán kiolvassa a BIOS-ban beállított paramétereket.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Annyit főznék hozzá, hogy hiba nélküli gyártás akkor lenne, ha a legyártott termékeket tesztelnék gyártás után. Ugye ez volt az alapkoncepció, amire azt mondtam, hogy nincs tesztelés, hanem tömeggyártásból megy a dobozba és el kell adni.
GPU VID-re nincs szükség. A CPU VID azért kell, mert az alaplapba belerakod a procit, vagyis te választod meg az alapokat. GPU-t viszont senki sem vásárol, hanem komlett VGA-ban veszik meg az emberek. Mivel a GPU ezen fizikailag cserélhetetlen, így a GPU VID is szükségtelen.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz fsb1000 #2427 üzenetére
Jól látod. Jellemzően a szoftveres mérés rossz. Ennek köszönhető, hogy nem alapoznak a műszerészek a szoftverből kiolvasott mérésekre. A GPU-Z szerintem a BIOS-ból olvassa ki a feszültséget, a driveren keresztül. Azért ad ilyen ezredértékre pontos paramétert minden kártyánál.
A hőmérséklettel kapcsolatos szoftveres mérés jól mutatja a gondokat. Nincs az a léghűtő, ami 35 fokos szobahőmérsékleten 10 fokra hűti a procit. Fizikai képtelenség a szobahőmérséklet alá menni.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Elfelejted, hogy a feszültség emelése négyzetesen növeli a fogyasztást.
Voltage: by ASIC ... ergo nem az NV, hanem a Gigabyte dönt a feszültségről, hogy mit ír a BIOS-ba. Az NV csak ajánl egy értéket. Ami nem referenciakártya arra nem kötelező ezt alkalmazni. Ettől függetlenül az NV-nek kötelező a GPU-kat arra a paraméterre tesztelni.
(#2430) TTomax: Köszi a javítást. Bár a Giga BIOS-át nézve majd 0,1 volt lehet az eltérés. Ez azért komoly különbség.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
[link] A kártyák revíziójával. Ahogy a kolléga is írta az elején tesztelnek, aztán már az egész szúrópróbaszerű vizsgálatokra épül. Ha van baki, akkor új revízió. Egyszerűen nem tesztelnek napi több ezer legyártott VGA-t. Nincs rá emberi kapacitás.
(#2430) TTomax: A mai CPU-k eleve nem tartalmaznak állandó feszültséget. Ha azt állítod az alaplapon, akkor a maximumot állítod. Itt GPU-ról van szó, ahol nincs lehetőséged a feszültség dinamikus szabályzására egy adott módon belül. Erre még a PowerTune sem képes, túl nagy a kockázata az instabil működésnek. Az a +0,1 V komoly 20-25%-os fogyasztásnövekedést jelent.
Csak arra gondolj, hogy az AMD HD 6990-en a tuningbios 0,05 volttal növeli a feszültséget, és rögtön kapod a +75 wattot (TDP szerint), ami a gyakorlatban több is lehet.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Mi értelme letárolni a VID-et egy olyan termékre, ahol a GPU-t képtelen vagy fizikailag cserélni? Ez nem processzor, amihez külön vásárolhatsz alaplapot. Itt a VID tárolásának semmi jelentősége. Nem is csinálják.
A szivárgási áramnak egy harmadik generációs lapka esetében nem biztos, hogy érdemes ennyire komoly jelentőséget adni. Mondtem, hogy első generációnál még ok, de három generáció alatt már be lehet úgy állítani a gyártástechnológiát, hogy ez ne jelentsen problémát. Egyszer mellélőhetnek a mérnökök, sőt még a második is talán belefér, de harmadikra nagyon gáz lenne.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A partnereknek mindenképpen tesztelni fogják a nem referencia megoldásukat. Ha átment az ellenőrzésen, akkor mehet a tömeggyártás és utána csak szúrópróbaszerű teszt.
Félreérted a VID-et. Az NV semmit sem fog a gyárilag ajánlott feszültség felett-alatt tesztelni. Nekik éppen elég az, hogy a kari teljesíti a gyári specifikációkat. Ennek megfelelően a termék hibátlan, mehet a gyártókhoz.Csak nem mindegy, hogy mekkora probléma. Egy harmadik generációs lapkánál nem lehet nagy baj, mert a gyártósor kiforrott, így a termikus variancia is bőven kezelhető.
(#2436) TTomax: A digitális PWM-nek nem az a fő előnye, hogy nagyon pontos. A nem digitális áramkörök is kellően pontosak. A fő érv mellette az alacsony energiaigény (vagyis magas a hatásfoka). Az ellenérv, hogy mocskosul drága. Ezért alkalmazza az AMD csak a HD 6990-hez. A többi terméknél nem nyújt akkora előny, hogy megérje.
Pedig felkúszik 200 watt fölé. Ennek a fizika az oka.(#2438) Brekkk: Pontosan. Azoknak az embereknek is azért volt gyári hibájuk, mert nem tesztelik le a teljes tömeg gyártott készletet. Sokkal olcsóbb felvállalni a rizikót és a garanciát. Alapvetően eleve nem beszélünk magas hibaarányról.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Az NV igen, mivel ők beszállítók. Ha a gyártást szakaszokra osztjuk, akkor az alkatrészek gyártása és azok összerakása a két fázis. Az alkatrészt gyártó vállalat tesztel minden alkatrészt, míg az összerakó már nem teszteli a végeredményt, mert a logika azt diktálja, hogy ha az alkatrészek külön-külön jók voltak, akkor együtt egy előzetesen kitesztelt fejlesztésen jók lesznek, vagyis a tömeggyártás során felmerülő problémák száma elméletben nulla, a gyakorlatban pedig minimális.
A gyártástechnológiákat is állítsd generációkba. Egy gyártástechnológia bevezetése az elején gázos. Nincs kidolgozott alap, a gyártósorok kalibrálása is gyerekcipőben jár, így az első generációs GPU-k esetében valóban figyelni kell arra, hogy a lehető legtöbb termék beleférjen a TDP keretbe. Ezt úgy alakítja ki a cég, ahogy nekik a legjobb. A második generációs chipek esetében már van tapasztalat, vagyis maguk a fejlesztések, és a gyártósorok problémái is csökkennek. A fizikai hibák száma minimális lesz, és a termikus variancia is tökéletes határokon belül marad. A harmadik generációs chipek esetében (itt tartunk a TSMC 40 nm-es HP technológiájával) már a lehető legalacsonyabb a hibaarány, minden szempontból. Ezért készül teljes értékű lapkákból a GTX 550 (GF116) és a GTX 560 (GF114). Nincs szükség egy köztes sorozatra, ahova a selejtek mennek, mert egyszerűen alig van selejt. Ahol probléma lehet az a GF110, mert ott nagy a lapkaméret, de az is bőven kezelhető egy apró blokk letiltásával.
Ha a GPU az NV tesztjein nem teljesíti a referenciában megszabott x órajeleket, és y feszültséget, akkor azt le se szállítják. Mivel harmadik generációs chipekről beszélünk, nagyon kevés olyan termék lesz, amit nem lehet leszállítani. Eleve tesztelgetni a teljes termékskálát, hogy a referenciaparaméterek mellett még milyen módban működik jól, elképesztő erőforrást jelent. Fel kell állítani egy második tesztsort, amit be kell kalibrálni a kívánt tesztre. Ugye itt eleve nem emberek végzik az ellenőrzést. A termékek tucatjait behelyezik a tesztgépbe, és az elvégzi a tesztet. A végén kiadja, hogy melyik termék ok, és melyik nem. A nem jó terméket nagyon nehéz lenne tesztelni, mert két külön kalibrált tesztsor elképesztő kiesést jelentene a napi tesztkapacitásban, hiszen annak a tesztsornak beállítása nem jó a referenciatesztre.
(#2441) fsb1000: Ha nekem nem hiszel, akkor kérdezz meg egy műszerészt a szoftveres mérés pontosságáról. A tápos topikokban sokat hozzáértő felhasználót találsz. Én továbbra is fenntartom, hogy a szoftveres mérés nem pontos.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Inkább fogalmazzunk úgy, hogy 100 GPU-ból. Kb. 2-3 lesz kuka nagyon rossz esetben. Jó esetben 1, legjobb esetben pedig egy sem. Most ilyen mennyiségre beállítani egy teljes tesztsort pazarlás. Nyersz vele hetente párszáz GPU-t, de elveszted a napi tesztkapacitásod nagy részét. Összességében a leszállított termékek mennyiségében mínuszban leszel, ami nem cél. Emellett bizonyos termékek gyári selejtnek számítanak, vagyis a TSMC vállalja a felelősséget a sikertelen chipért.
Olyan nincs, hogy GTS 550. A GTX 460-hoz már nulla GF104-es GPU készül. Az egy kifutó széria.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Sziszifeca #2453 üzenetére
A topikban közölt OC-s kártyák nyűgjeit ne vetítsük ki a teljes szériára. Akinek nincs gondja, az eleve úgysem ír be panaszt ide.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz edemteennine #2462 üzenetére
Valószínűleg egy tekercs nem lett jól gyantázva. Vidd vissza a boltba.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.