Új hozzászólás Aktív témák
-
nagyúr
Ja, a memóriabuszt nem, csak a ROP-okat, azt viszont sokkal idiótábban (ld. 5830). Amúgy állatira nem értem, mi a nagy probléma a backend megvágásával
(#5769) zoli7903: Ott valami nem kerek - az egyik tesztben a 980Ti azonos órajel és kevesebb unit mellett gyorsabb, mint a T-X. Vagy fake a teszt, vagy jóval magasabbra boostol a tesztben a kisebbik kártya, vagy power / temp limitbe fut a T-X.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
Szerintem felesleges magyarázni a bizonyítványt, meg "vonalakkal" dobálózni - mindkét oldalnak voltak hülye húzásai. Azon meg elméletben lehet vitatkozni, hogy a flex memóriavezérlés nagyobb probléma, vagy a lefelezett ROP partíció - a gyakorlat viszont azt mutatta, hogy míg az 5830 teljesítménye néhány tesztsor lefuttatása után is rettentő összevisszaságot mutatott, a 660Ti-vel és a 660-nal egyetlen egyszer sem futottam bele ilyen problémába, pedig ezeket nem csak teszteltem, hanem több, mint 2 éve ilyenek vannak a gépben is. Sőt, tesztet sem láttam, ami ezt igazolná, de ha mutatsz egyet, szívesen megnézem, mert érdekel, mivel lehet megszívatni a flex vezérlést
A 970 pedig, leírom még egyszer, nem egészen ugyanez a probléma. A 970 gondjainak a marketing a forrása, mert szerintem az égvilágon semmi gond nem lenne a kártyával, ha 3.5GB-nak reportolná magát. Fizikailag rajta lenne a kártyán a 4GB, de a gyakorlatban csak 3.5 lenne kihasználva.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
Szerintem próbáljunk meg az objektív irányba visszakanyarodni, mert ebben a hsz-ben már megint óriásira vannak nagyítva az nVidia problémák
A 660Ti esetében már hallottam olyanról, akinek az unokatestvére már olvasott ilyen problémáról, de a gyakorlatban egyetlen tesztet nem láttam, ami kimutatta volna. Minden bizonnyal azért, mert a driver úgy reprezentálja a kártyát, hogy 1.5GB-nál többet ne nagyon akarjon senki beletölteni (erre konkrétan láttam videot). Én is azt gondoltam a koncepciót elolvasva, hogy ez gázos, de a gyakorlat nem igazolta.
A 970-nél pedig miért nem megoldás a driveres korlátozás? Teljesen korrekt 3.5GB-os kártyád lesz tőle Az egy külön ügy, hogy az nVidia átb***ott mindenkit 0.5GB-tal, ezt egyénenként érdemes eldönteni, hogy lenyeli-e az áldozat - viszont ez nem műszaki kérdés. Semmi gond nincs ezzel a vágással műszakilag, ha ésszel van használva.(#5789) proci985: ja, kb. ennyi. A tisztességtelen piaci magatartást kimerítette a dolog, és egy szűk kört gyakorlatilag is megszívattak vele, de a többségnek ár/teljesítményben még mindig jó. Tanulságok értelemszerűen vannak
[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
veterán
Ugyankkor szivacs van, ha valamiért nem megy a driver
Ultra nagy szivacs van az összes VGA-nál gyártófüggetlenül, ha vmiért nem megy a driver...
Műszakilag meg, ha 3,5GB-os VBIOS lenne a 970-en pont olyan lenne mint bármelyik másik VGA.
Egyébként a "hiba" súlyosságát pontosan mutatja, hogy mennyi időbe telt mire kiderült, és az AMD sem vette észre amikor nézegették a 970-et...
[ Szerkesztve ]
-
veterán
Azért azt gondolná az ember, hogy amikor kijött a 970 az AMD-nél jól megvizsgálták, de hát úgy látszik nem.
Pár héttel a 970 megjelenése után sokkal jobban feküdt volna az ellenkampány, de az AMD ezt a lehetőséget is kihagyta.A kártyaspecifikus optimalizálás: "4GB=3,5GB"
-
nagyúr
Ha nem megy a driver, akkor nincs 3D gyorsítás, úgyhogy tök mindegy, mennyi a mem
DX12 és Vulcan alatt szerinted honnan tudja a játék, mennyi memóriával gazdálkodhat? Természetesen megkérdezi.
Utoljára írom le, nincs semmilyen műszaki disznóság, kommunikációs és szoftveres disznóság van. De ha már elmész paranoiás FUD irányba, akkor miért nem mondod azt is, hogy a 980-ról meg 5GB-ot fog reportolni a driver? Ezzel a módszerrel mindegyik VGA-t meg lehet szívatni.
Figyi, értem, hogy rühelled a 970-et, ne vegyél ilyen kártyát. Viszont az nem korrekt, hogy ilyen elefántot csinálsz egy nehezen előhozható problémából, amire ráadásul van szoftveres fix is - ami egyáltalán nem workaround. Egy 5%-os esély 5%-os valószínűségű jövőbeli problémáján rugózol, ráadásul egy olyan VGA esetében, ami ár / teljesítményben jobb, mint a kettővel alatta lévő árkategória versenyzői, hasonló operatív paraméterek mellett. Elég jól körülírtam, hogy mennyire feleslegesen?
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
#85552128
törölt tag
A driver most is 4 GB-snek jelenti, de van egy 3.5 GB-os barrier amit csak néha léphet át a program. A Dying Lightnak hasonló "pakolós" motorja van és nincs belőle probléma 3.5 GB-ig tölti tele. Ugyanúgy ott lesz a 3.5 GB-os korlát mint most a driverben, de persze el lehet fantáziálgatni arról aminek 1%-os esélye van bekövetkezni...
De nem az volt, hogy DX12-vel nem lesznek ilyen "pakolós" motorok és csak az lesz benn ami tényleg kell ?
Amúgy Shadow of Mordor volt már, hogy (4K DSR-rel) 3.7 GB-t használt total és nem volt látható probléma azonkívül, hogy ilyen felbontáson már játszhatatlan volt...[ Szerkesztve ]
-
#85552128
törölt tag
A pakolgatás a DX12-vel sem lesz gyorsabb, ugyanazokat az adatot kell beolvasni ugyanolyan gyorsaságú tárolókról mint eddig, a törlés az ami _elméletileg_ nem lesz erőforrásigényes - DX11-ben is rengeteg dolog működik elméletileg.
A termék továbbra is 4 GB-os függetlenül attól mit jelent a driver (főleg, hogy a Windowsnak mehet 4 GB, a D3D API-nak meg 3.5 GB) tehát ha eddig nem volt per akkor emiatt sem lesz...
Egyébként DX12-től függetlenül szerintem ugyanúgy tudják driverből limitálni, jelenleg sem az API-n keresztül megy mert pl. GTA V 4 GB-t lát, de a 3.5 GB korlát ugyanúgy megvan.[ Szerkesztve ]
-
nagyúr
Dehogy ír bele csak úgy - egyszerűen vagy nem tünteti fel a fizikai memóriatartományt az OS felé elérhetőnek (akkor tényleg kuka az 512MB), vagy rögtön betöltődéskor lefoglalja / megflageli / whatever, hogy ez "speciális" / foglalt memória (nem tudom, pontosan mire van lehetőség a WDDM-ben).
Igen, látszani fog a játékokban, hogy mi a helyzet. Majd ezt is megmagyarázza Jensen, hogy "we only wanted to give you the best experience possible". Ironikus módon, ebben az esetben még igaz is lesz(#5822) proci985: A legnagyobb tanulságot a tesztoldalak vonhatják le - Anandék le is írták, láttak jeleket, hogy valami nem teljesen kerek, és restellik magukat, hogy nem mentek jobban utána. Reméljük, tényleg tanulnak belőle.
Felhasználói szemmel annyi a konklúzió, hogy a harvestelt kártyáknál mindig lehet meglepetés. Meg hogy az nVidia gátlástalanul hazudik. Egyik sem új, de kicsit sikerült most rájuk erősíteni.Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Ghoula
senior tag
Írtál köré egy szép történetet, de ettől nem lett életszerűtlenebb, amit írtam
a programozó dönthet úgy, hogy a címtartomány felső 1gigáját szeretné használni = "beosztja magának, hova mit rakjon, és elkezdi pakolni bele a cuccokat"
#5816 @gbors: Persze a driver megmondja az os-nek, hogy ez a címtartomány, de utána nem lesz köze hozzá. Workaround lesz rá, csak itt nem tudja úgy elrejteni az nv, mint a dx11-es driverrel és jogi problémákba ütközhet. Viszont a gyakorlat azt mutatja, még ha le is csapják, jogi lépésektől nem hinném, hogy tartaniuk kell.
DX11 alatt ott a 4g memória, bele tudsz írni, vissza tudod olvasni, de ott van ráhatásuk,mi hova kerüljön.
Dx12, vagy kiadod a full területet és az applikációra bízod a partíciók kezelését, vagy elveszed.#5822 @proci985: Nem azt mondom, hogy a 970-eket máglyára kell dobálni, bár ez a tákolt memória kb olyan mint autónál a színre fújt szélvédő... Így viszont hosszabb távra jobb a 980 a felárral együtt is. Ami számomra fura, hogy miért választják ismét ezt az utat?
-
keIdor
titán
Az a helyzet, hogy a (lassan) 80/20%-os piaci "megosztottság" azt mutatja, hogy mégis ők csinálják jól. Ha a konkurencia fele ilyen jól csinálná nem állna ilyen gyászosan.
Egyébként biztos vagyok benne, hogy ha kellene már lehetne Pascal a piacon, ezek után... az inkább a Kepler-t követi már, tehát nem nevezhető butának.
¡GLORIA A LAS PLAGAS!
-
Asbee
veterán
Vagy fordítva. Mindenesetre ahogy kitalálták ezt a maxwell sorozatot és időzítettek azzal iszonyatosat nyertek és ilyen árral rendelkező 980ti-vel csak még inkább fognak. Erre az átmeneti időszakra jöttek egy átmeneti chippel. Most már nagyon kíváncsi vagyok amd-re de a csillagok állása is kelleni fog nekik...
[ Szerkesztve ]
-
Asbee
veterán
Néha ilyenkor elgondolkodom, hogy te vajon 2015 ben a földön élsz-e... Mai világban el lehet dönteni mi a cél. Csak bukunk de legalább elmondhatjuk hú de faszák vagyunk aztán egy idő után megszűnünk vagy uraljuk a piacot. És nyilván valaki a semmire nem uralja. Persze sírni kifogásokat keresni lehet.
-
keIdor
titán
Az AMD-nél sem ismeretlen a magas árazás, nézd meg a 10 évvel ezelőtti Core 2 előtti FX processzorok árát.
Ha versenyképes termékeket tudnának letenni az asztalra, ugyanezt csinálnák, erről szól a kapitalizmus. Profit mindenek felett.
A két cég között egy nagy különbség van, mégpedig az, hogy az nVidia versenyképesebb, erősebb termékeket tud jelenleg letenni az asztalra és a marketing is jobb. Sokkal jobb a cég vezetése is.Azt már csak zárójelben jegyzem meg, hogy a jelenre fejlesztenek és a szoftveres support is jobb, ha hibáznak is, hamar jön a javítás, ha friss cím jön ki, egyből a megjelenés napján ott a driver is hozzá. Ez sok vásárlónak fontos, pl. nekem is.
Ha a Fiji teszem azt +50%-al gyorsabb lenne a Titan X-nél, hidd el, az AMD is elkérne érte egy pofátlan összeget. A módszerekről meg annyit, hogy az AMD is jelezte már, nem is olyan régen, talán 1-2 éve, hogy akkor ők is pofátlan módszerekhez nyúlnak. Hajrá, senki nem mondta, hogy ezt tilos. De hol van ez? Sehol, mert rossz a vezetés, meg is látszik a negyed éves ill. éves forgalmon.
¡GLORIA A LAS PLAGAS!
-
#85552128
törölt tag
"(#6071) Szaby59: A dVGA "piac" 90% azt se tudja, mi az a VGA. "
Uhh ez valami frappáns válasz akart volna lenni ? Mert keresem, de nem találom a poént...
Nyilván a vásárlók 90%-a technikai analfabéta hisz aki nem a - papíron nagy tudású - GCN-t vesz az csak az lehet... Más kérdés, hogy ettől még ugyanúgy nem törvényszerű egyik gyártó irányába sem a jóval nagyobbb részesedés.
Főleg, hogy az elmúlt 6 hónapban pont az "okos" AMD-től pártoltak el nagyon sokan a buta Maxwellre, tehát annyira nem lehet minden rendben.
Egy cég ha nyereséges akar maradni azt kell gyártani amire kereslet van, ez eddig sem zárta ki, hogy mellette fejlődés is történjen.[ Szerkesztve ]
-
keIdor
titán
Mire oda jutunk, hogy DirectX12-es játékok jönnek már itt lesz a Pascal. Pontosan erre gondolok, mikor azt mondom, hogy a jelenre fejlesztenek és jól is teszik. A DX12 még a jövő zenéje, készül rá az architektúra. Ez még legalább 1-2 év.
AMD se igazán támogatja már a HD5000, HD6000 családot. Fel tudod hozzájuk tenni a friss drivert, de nem optimalizálnak már rá. Én nem látom a különbséget. Persze az is világos, hogy a Fermi és a Kepler is le van már ejtve.
Az ilyen manipulálások senkinek sem szimpatikusak egyébként, ezért kéne egy erős konkurencia.
[ Szerkesztve ]
¡GLORIA A LAS PLAGAS!
-
nagyúr
-
FLATRONW
őstag
Az AMD azt ismerte fel, hogy nem igazán tudnak drivert írni, így ennek low level api mellett nem lesz jelentősége. Mindig arról írtok, hogy az NV mindent erőből akar megoldani, pedig pont ők azok akik rengeteget beleölnek a driver fejlesztésbe. A driver fejlesztés pedig nem más, mint a hardverek minél jobb kihasználása szoftveresen.
Persze a low level api jobb szoftveres kihasználást tesz lehetővé, de jelenleg még nem tartunk ott. 1-2 évvel ezelőtt pedig még távolabb voltunk tőle és akkor sem törődtek a driverekkel.
Egy cég tegyen meg mindent, hogy DX11 alatt is ténylegesen érje el az api korlátait, mert jelenleg a Radeonok még nem érték el ezeket a korlátokat.
Én nem tudok bízni egy ilyen cégben, aki folyton korlátokról beszél, de a jelenben nem tesz ellene semmit, csak vár, hogy a jövőben a fejlesztők tegyenek ellene.
Persze lehet azt mondani, hogy elkészítették a Mantlet, ami alapján elkészültek a további API-k is, de a jelenben is tenni kellene valamit a jobb kihasználás érdekében. -
nagyúr
Ha a GRID-jükben látják a jövőt, azt ők fogják ellátni HW-rel, tehát amit most megnyernek, azt később elég komolyan bebukhatják. Amit írsz, az akkor logikus, ha úgy gondolják, hogy rövidesen kalap-kabát.
(#6107) Televan: nekem meg az az érzésem, hogy az AMD-szimpatizánsok próbálják meggyőzni az nVidia-tulajokat arról, hogy tartaniuk kellene a DX12-től, de az nVidia tulajok többsége jelenleg szarik rá. És nem azért, mert az valami szörny, hanem azért, mert még nem időszerű. Lássunk már egy kommerciális DX12 / Vulcan játékot - szerintetek mikor jön az első ilyen?
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
#85552128
törölt tag
Linkeld már be nekem a 290/X hivatalos TDP-jét - hivatalos AMD oldalt kérek! (nem 250W mint ahogy az néhány tesztben van az a 280X-é...)
Az alacsonyabb órajel és a kevesebb aktív mag miatt éppenséggel pont, hogy valamivel (nem sokkal de olyan ~10-20W) kisebb a TDP-je csak nálad is azért kellett az adott típust downclockolni mert alulméretezték a hűtést még az X-hez is...
Tudom, hogy van normális hűtős megoldás, de a ref. nagyon nem volt az, még a 2 ventis customok sem az igaziak.[ Szerkesztve ]
-
nagyúr
Mármint milyen dolgok? Ha a kézzel fogható dolgokat nézzük, akkor az AMD-nek van még egy dobása (a jövő évi új szériájuk), aztán csókolom. Meglátjuk, a DX12 mennyire lesz piaci értelemben diszruptív.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
#85552128
törölt tag
Nem marketinganyagot kértem, hanem hivatalos linket a specifikációkhoz és a 290X-hez.
Úgy mellékesen pl. az sincs megemlítve sehol, hogy a ZeroCore HDMI-vel nem lehet aktív - aminek én mondjuk csak örülök, de ha már annyira fenn vagy akadva a 970 specifikációinál akkor nem ártana a másik gyártónál is észrevenni ezeket a hiányosságokat...A linkelt kép is a "tipikus" fogyasztást adta meg - jelentsen ez bármit is, de az játékonként változhat illetve azt is jelentheti, hogy a 295X2 lévő GPU-kon szigorúbb lehet a TDP szabályozás (lehet, hogy egyenként nincs csökkentve, de pl. CF-ben hamarabb vesz vissza).
A többi tesztoldal is 250-300W közötti fogyasztást ad meg a 290X-hez: Techpowerup - 290W"Based on our test results we’re seeing 290X draw more power than any other “250W” card in our collection, and in reality the TDP of the card is almost certainly closer to 300W. There are limits to how long the card can sustain that level of power draw due to cooling requirements, but given sufficient cooling the power limit of the card appears to be around 300W, and for the moment we’re labeling it as such."
Tehát a 250W mint max sehogy sem jön ki, 300W-hoz közeli.
[ Szerkesztve ]
-
nagyúr
De a "dolgokról" ne úgy beszéljünk már, hogy egy orbitális "Ha"-val kezdődik a mondat Azok nem dolgok, hanem feltételezések.
(#6131) Televan: Nem dől össze, de a vásárlóknak szar lesz. Szóval igen, ránk fér az AMD sikere, én is szurkolok nekik.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
#85552128
törölt tag
Hivatalos oldalt kértem arra próbáltam rámutatni, hogy az AMD nem tünteti fel a hivatalos specifikációkban a fogyasztást/TDP-t GCN 1.0-n megnézhető bios editorral, GCN 1.1 és fölötte nincs kompatibilis bios editor, de kilehet hexázni ha valakit érdekel...
A HDMI dologban biztos vagyok és elvileg DP-vel is így van, mert a hangátvitel miatt nem lehet aktív régebben voltak emiatt gondok gondolom utána inkább kikapcsolták...
"A 224GB/s sávszélesség ugyanis elérhetetlen a termékkel a hagyományosan alkalmazott értelmezés szerint."
Ez igazából ettől bonyolultabb, 7 sáv érhető el egyszerre ~196 GB/s-en, az utolsónak is 32 bites kapcsolata van a memóriavezérlőhöz, de az vagy megy/vagy nem esetleg megosztva, az pedig nincs a specifikációknál részletezve, hogy milyen módon kapta ezt az értéket az nVidia - ez egy kitűnő védekezési alap - és ezt nem csak én, de más tesztoldalak is így látják: [link]
"This in turn is why the 224GB/sec memory bandwidth number for the GTX 970 is technically correct "
Sunyi dolog: igen, támadhatóak: nem - majd kiderül...
Pl. a Boostnál is csak az alap órajel van feltüntetve, de ettől mindegyik kártya feljebb fog menni."Oké, nincs megemlítve, hogy HDMI-vel nem megy, de az sincs, hogy megy."
De az sincs, hogy mire kell érteni, úgyhogy számomra "hagyományosan alkalmazott értelmezés szerint" működnie kellene bármivel...
És ez azért nem egyetlen kártyát, hanem az egész GCN lineupot érinti.A gond inkább ott van, hogy ok mellőzzük a 970-et mit kéne venni helyette ? 290X-et egyre több újabb játékban lassabb ? +50-ért 980-at ?
[ Szerkesztve ]
-
kovsol
titán
Egyébként az átlag usernek tényleg lövése nincs a VGA kártyákról. És mivel a köztudatban még mindig az van, hogy az AMD az olcsóbb megoldás, és tök hidegen hagyja az, hogy mekkora csodás képességek rejlenek a kártyában kihasználatlanul. Nem véletlenül találták ki ezeket a programokat se a driver mellé, hogy a játék beállításait is belője, mert sokan még életükben nem mentek be a settingsbe se, nem hogy ott finomhangolják a játékot.
May the Force be with you!
-
#85552128
törölt tag
"De egy ősrégi 7970-et is előbb vennék 50K-ért, mint egy GTX970-et...."
Ezzel szerintem magadat és az "objektivitásodat" minősíted...
"Az Nv kamu-TDP-je jobb a Maxwell-nél, amit szándékosan alullőtek?"
Milyen kamu TDP ? Minden tesztben gyári TDP limittel mérnek, így "alullőtt" TDP limittel is gyorsabb.
Ha te customot veszel (és OC-zed) akkor persze hogy többet fogyaszt, de gyorsabb is jóval mint a ref...
Miért baj az hogy van még benne potenciál ? Így is gyorsabb..."Az se véletlen, hogy koncerteztek a korai példányok, mivel a TDP-hez lett belőve a táprész, csaképp a TDP nem annyi volt, mint papíron...."
Nem a Strix 970 TDP-je 163W-ra van beállítva biosból, ez +18W-al a referenciához képest, de magasabbra is boostol... Viszont így is cicereg, tehát a gyártók eleve alul méretezték még a referencia TDP-hez képest is.
[ Szerkesztve ]
-
nagyúr
Két éve azt jósolgatta itt a delphoi fan club, hogy 2016-ra megszűnnek a diszkrét VGA-k. Hogy látod ezt most?
Én először szeretnék látni egy működő APU-t HBM-mel, szeretném látni, hogy hozza azt a teljesítményt, amit egy diszkrét VGA ugyanazzal a konfigurációval (ld. A10-7850K vs 7750 - ouch!), és azt is szeretném látni, hogy mennyibe kerül. Amikor ez mind megvan, akkor lehet elgondolkodni. Addig csak a fantáziálás van.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
daveoff
veterán
Itt most nem is erről van szó, eddig tényleg nem voltak ilyen drágák a csúcskártyák, és ezek az elmebeteg árak - ahogy Milka is mondta, teljes mértékben egyet értek vele -, húzni fogják magukkal az alsóbb kategóriák árait is. Majd szépen a jelenleg 80-100K-s 290-et megveheted 120-130K-ért átnevezve 390-re.....
LG 27GL83A 27'' UltraGear™ QHD IPS 1ms Gaming Monitor with G-Sync®
-
daveoff
veterán
Amennyit tavaly rádobtam a 290X-re, hogy 980-at vegyek, annak most minimum a dupláját kéne hozzáraknom a 980-hoz, hogy egy 980Ti-t tudjak venni. Egyébként mindenkinek egyéni preferenciája, hogy mennyit tud, mennyit hajlandó kifizetni egy kártyáért, én ennyit nem fogok fizetni az biztos. Mondjuk nekem FHD-n nincs is szűkségem komolyabb kártyára, de ha olcsóbb lenne a 980Ti/Fury, akkor biztos kipróbálnám.
Tudod mit reszeltek a 290-en, rápakoltak még 4 giga ramot, ami semmit nem ér, csak növeli az árát, meg emeltek 50MHz-et.....
LG 27GL83A 27'' UltraGear™ QHD IPS 1ms Gaming Monitor with G-Sync®
-
egyebkent a felebredesre van valami workaround?
nekem valszeg a socket2011 + win8.1 az oka, mert harom kulonbozo GPU setuppal (7850 CF / GTX970 / 290X) elojott a problema, viszont socket2011 valtasnal kezdodott es socket2011+ win7 mukodott rendesen. elotte a 7850 CFfel a win7el socket1156on szinten oke volt.
ez alapjan az AMDt kizarnam, mert NVidiaval is fennt allt a problema.win7el nem, de az ultimate win7 keyem a laphoz van kotve, az msdnaas win7em meg lejart.
Don't dream it, be it. // Lagom amount.
-
odorgg
addikt
Lehet alaplap, lehet szoftver, de azért nem cserélek lapot, hogy vagy jó lesz vagy nem. Driver eddig nem segített a dolgon, az biztos. 7970-el ment ahogy kell, 7850-70,290/x-el nem.
Egyébként az a vicces, hogy a kártya fel ébred, csak jelet nem küld a monitorra, ha átdugom a csatit másik portra, akkor már küldi a képet is.
Origin/BF3/BF4/BF1/BF5: odorgg
-
TTomax
nagyúr
Olyan hatalmas difi nem volt,amikor a Ghz biost szépen feltoltam a mezei ref 7970emre...
★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Házi barkács, gányolás, tákolás, megdöbbentő gépek!
- AMD K6-III, és minden ami RETRO - Oldschool tuning
- Kerti grill és bográcsozó házilag (BBQ, tervek, ötletek, receptek)
- Galax GeForce RTX kártyák jönnek a szűkösebb házakba
- Kínai, és egyéb olcsó órák topikja
- Xiaomi Mi 9 SE - csúcsimitátor
- Metal topik
- Házimozi belépő szinten
- Energiaital topic
- Vezetékes FÜLhallgatók
- További aktív témák...
- Üzletből, garanciával, Macbook Air Retina 13" 2020, 8GBRAM 256GB SSD magyar bill
- Lenovo ThinkStation P330 Workstation: 3D tervezésre (CAD), videó vágásra, animációk készítésére(DCC)
- ASUS ROG STRIX RTX 3070 8GB
- Eladó ASUS ROG STRIX SCAR II GL704G kishibás gamer notebook
- ÚJ! // ÁR ALATT! // Edifier S3000 MK II // Muziker garancia
Állásajánlatok
Cég: Ozeki Kft.
Város: Debrecen
Cég: Alpha Laptopszerviz Kft.
Város: Pécs