- A felhőből segítik az automatizált tőzsdézést az új AI-modellek
- EU: a Facebook, a YouTube és az X is többet tesznek a gyűlölet ellen
- Donald Trump a tech szektort is felkavarja, Musk vihetné a TikTokot
- A fizetett hirdetésekre nem terjeszti ki a Meta a közösségi jegyzeteket
- Gyerekek, adatvédelem: kiegyezett a Genshin Impact kiadója az USA-val
- Netflix
- Donald Trump a tech szektort is felkavarja, Musk vihetné a TikTokot
- Otthoni hálózat és internet megosztás
- One otthoni szolgáltatások (TV, internet, telefon)
- PR-Telecom
- QNAP hálózati adattárolók (NAS)
- Hálózati / IP kamera
- Telekom otthoni szolgáltatások (TV, internet, telefon)
- Linux kezdőknek
- VPN topic
-
IT café
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Busterftw
nagyúr
-
KRoy19
őstag
válasz FLATRONW #45469 üzenetére
Éredekes, én azt gondoltam, hogy ahol van DLSS, ott van DLAA is mindenesetre találtam egy ilyet. [link]
Macerásabbnak tűnik, mint a fel-le skálázás, amit leírtál, de ha gondolod ránézhetsz, hogy van e szignifikáns minőségbeli különbség a két módszer közt.[ Szerkesztve ]
-
PuMbA
titán
válasz FLATRONW #45139 üzenetére
Ja ez ilyen PC World anno jól megmondta. Sokak szerint elég jó az AMD, de amint a vásárló kosárba rakják bele az emberek a VGA-t, valami "csoda" folytán majdnem mindenki NVIDIA-t rak bele. Ezért van 88-12%-os arány az NVIDIA javára.
Raymond: Igen, multi játékokban, amikben még egy sima 4060-on is 120fps-sel süvít, teljesen nonszensz felskálázót használni.
[ Szerkesztve ]
-
PuMbA
titán
válasz FLATRONW #44830 üzenetére
Igen. Az UE5-nél ezért van az, hogy a szoftveres RT ugyanolyan gyors, mint a hardveres RT, mert a szoftveres RT minősége rosszabb. Snowdrop 2 motor alatt hardveres RT esetén az NVIDIA kártyák már elhúznak sebességben az AMD-hez képest az UE5-tel ellentétben az erősebb RT egységek miatt.
UE5-ös Stalker 2-be megjelenés után a készítők ígértek hardveres RT-t is a megjelenéskori szoftveres RT mellé, szóval lesz egy jó összehasonlításunk hamarosan.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz FLATRONW #44772 üzenetére
Mert az új drivermodulok nem mindig kompatibilisek visszafelé. De erre az NV mindig figyelmezteti a fejlesztőket. A nagyon régi GPU-s PhysX játékok instabilak lehetnek az új driverekkel.
#44773 Teasüti : Akkor érdemes nekikezdened, mert nem tudni, hogy melyik modul meddig fogja stabilan futtatni a régi kódokat.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Teasüti
nagyúr
válasz FLATRONW #44729 üzenetére
Egyetlen játékban sincs már hardveres PhysX, mert az exkluzív fícsőr. Amiben volt, ott sem volt meghatározó a játék mechanika szempontjából. Én vártam a fizikára épülő játékmenetet, mint a Messiást. Nvidia ledegradálta* közönséges eyecandy-re, pedig forradalmi lehetett volna.
*Vagyis mivel bezárta, ezért inkább nem terjedt el.
Egy maréknyi játékba került csak bele a hardveres PhysX, ott is csak eyecandy gyanánt.Nekem volt anno egy 9600 GTX kizárólag PhysX-re, annyira bele voltam invesztálva a koncepcióba.
Aztán arra a sorsra jutott, mint a Creative hardveresen gyorsított hangja, ami konkrétan két játékba került bele, aztán viszlát. De azért benne volt a gépben a Auzentech kártya is.[ Szerkesztve ]
-
PuMbA
titán
válasz FLATRONW #43274 üzenetére
Attól függ, hogy mit hívsz bazárinak. Szubjektíven lehet annak hívni, de a mai sztenderdekhez képest az NVIDIA vezérlőpult a bazári Miért? Meg kell nézni, hogy milyen felület van más helyeken és milyen felületeket cseréltek le milyenekre az utóbbi években. A mai modern felhasználói felületek inkább hasonlítanak az AMD és az Intel megoldására.
[ Szerkesztve ]
-
Quadgame94
őstag
válasz FLATRONW #43252 üzenetére
Szemrákot lehet tőle kapni. 2024-ben nagyon ciki már. Illetve attól, hogy az UI modernebb lesz még lehet átlátható. Van ott pénz lóvéra ez rajtuk múlik/múlna milyet fejlesztenek az AMD-nek nem tudom mi köze van ehhez. Mondjuk pont két kattintás az Adrenalinban bármilyen beállítás (megnyitás -> katt a játékra vagy megnyitás -> fenti beállítás ikon) ha ez valakinek bonyolult akkor az...hm... nem is tudom milyen. Ilyet vagy ennél sokkaaal jobbat tudna az NV is csinálni.
[ Szerkesztve ]
-
Callisto
őstag
válasz FLATRONW #43227 üzenetére
Így igaz, de vannak kis zárt gömbben élők akik nyilvánvalóan hiszik, hogy - és úgy beszélnek mintha - ez lenne az első. Erre reagáltam. Az elvakult hitnél még rosszabb a tudatlanok tévhite. Nem beszélve a beképzelt kétszínű kettősmércéjű baglyokról.
[ Szerkesztve ]
"A wise man can learn more from a foolish question than a fool can learn from a wise answer." - Bruce Lee
-
félisten
válasz FLATRONW #42491 üzenetére
Mindegyik Super kártya már az új csatit fogja használni. A sima 4070 nél eddig engedélyezve volt az AIB partnereknek a 8 Pines csatllakozó is.
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
válasz FLATRONW #42018 üzenetére
Pontosan...
A felskálázási korszak a konzolokon kb. másfél évtizede eljött, csak a PC-ken kellett hozzá a Ray-Tracing meg a 4K, hogy megtalálja az indokot, hogy miért vessék be.
A Ray-Tracing és a most már a Path-Tracing (ha jól csinálják) többet ad hozzá a grafikához, mint amennyit a DLSS elvesz. Innen kezdve a kérdés inkább az, hogy mennyire képesek a konkurensek utólérni a DLSS-t...Légvédelmisek mottója: Lődd le mind! Majd a földön szétválogatjuk.
-
paprobert
őstag
válasz FLATRONW #41146 üzenetére
Általában harang görbét rajzol le az elérhető grafikai szint egy GPU-val, ha kellően sokáig van használva.
Eleinte semmi nem használja ki(egyre csak javul a megjelenített grafika), később tökéletesen rá van szabva(maximum), majd idővel kiszorul az optimumból és egyre rosszabbul néznek ki a játékok ugyanazon a kártyán.
Retro VRAM-os kártyáknál ez folyamat egész feltűnő, és nem csodálkozom hogy lassan a 8GB is ennek a jeleit mutatja.
640 KB mindenre elég. - Steve Jobs
-
nagyúr
válasz FLATRONW #41011 üzenetére
Probléma akkor is van (az effektív akkor is hülyeség), és a mostani probléma is csak egy szűk körnek tűnik fel, úgyhogy igazából mindegy.
#41013 Abu85: hát, a LLCB-nek meg az információtartalma közelít a nullához. Valami olyasmire van szükség, amitől összevethetővé válik az előző generációval, és nem azt látja a potenciális vásárló, hogy az előző generációhoz képest kapott a sávszélesség egy fajsúlyos vágást.
#41012 paprobert: fontosnak éppen fontos, mert sokféleképpen lehet variálni a fizikai sávszélesség és a cache arányát, nem lehet azt mondani, hogy az Ampere megoldása jobb, mint az Ada-é, vagy fordítva. Úgy érzésre kicsit soknak tűnik a vágás a fizikai sávszélességből, meg a 4K tesztek is erre utalnak, de egy rendes elemzést jó lenne róla látni.
[ Szerkesztve ]
"We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
PuMbA
titán
válasz FLATRONW #39553 üzenetére
Csak tudod mi az érdekes.... hogy a hőmérséklet és a TDP is gyárilag fix, szóval miért ne tudnák pontosan kimérni? Minden VGA esetén a venti profil úgy van beállítva, hogy fix hőmérsékletet tart. Ha nagyobb a környezeti hőmérséklet, akkor gyorsabban pörög a venti, nem a hőmérséklet lesz magasabb.
[ Szerkesztve ]
-
#82860288
törölt tag
válasz FLATRONW #39113 üzenetére
Nekem nem új, csak gondoltam megosztom itt is, hátha másoknak új. Mert a 2 ember ugyanaz, csak a szín változott zöldről kékre. 😁 Érdekesség, semmi más.
Mióta egy hónapja kb. megnéztem az Nvidia live eseményét, tele a YouTube feed-em ezekkel a videókkal, sőt, 10-12 évvel ezelőttről is bedob teljesen random nem releváns videókat is, ami néha vicces ám, amikor ATI meg 3dfx videókat látok többségében.
Az már másik történet, hogy azóta hiába keresek más témákra szándékosan, valahogy YouTube mindig Nvidia videókat dob be random csatornákról, amikről eddig életemben nem hallottam, de ez már másik történet. -
-
Devid_81
félisten
válasz FLATRONW #38606 üzenetére
Digital Foundry is nagyon jo, de azzal a videoval ahol az RTX 3080 2x gyorsabb mint az RTX 2080...picit ellottek a labdat nalam
Ettol eltekintve vannak nagyon szuper elemezeseik vannak, kb egyeduallo a netenTulajdonkeppen Gamer Nexus maradt joforman aki tenyleg jo es nem qrwul...legalabbis eddig nem tette
Anno buildzoid videokat is neztem, mert ha PCB elemzes kell, akkor a csavo aztan kivesezi a cuccot rendesen...
-
KillerKollar
őstag
válasz FLATRONW #38563 üzenetére
Szerintem az Ő érdekük is, hogy találjanak valami megoldást, se az NV se az AMD nem gyárt tápegységeket, nekik semmi hasznuk nem származna abból, hogy tápcserére kényszerítsék azokat is, akik amúgy kellően erős táppal rendelkeznek, de mondjuk nem az utóbbi 1 évben vásárolták (vagy igen de nincs rajta az új fajta csatlakozó, pl a Corsairnak ha jól láttam a mai napig nincs olyan tápja amin rajta lenne).
-
félisten
válasz FLATRONW #38206 üzenetére
Nekem már az 1060 is megjelenéskor nagyon bejött, emlékszem a GTX 980 karik ott roskadoztak 200 ezer körül az AQUA polcain, kutyának nem kellett akkor az már a GTX 1060 100 ezres ára miatt.
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
nagyúr
válasz FLATRONW #38198 üzenetére
Azon elsősorban a megrögzött AMD-hívők sírtak. 60-70% ugrás teljesítményben, és 40-50% ugrás ár / teljesítményben nem volt akkor sem szar.
Az egyetlen baj az volt velük, hogy a piac túl nagynak ítélte a javulást, és sokáig nem lehetett őket (1070 és 1080) MSRP-áron kapni."We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
Yutani
nagyúr
válasz FLATRONW #37966 üzenetére
Igen, ez a cikk az. Szépen megmutatja, hogyan fejlődött az NV kártyák hatékonysága. Annak idején arról beszéltünk, hogy az AMD-nek azért ilyen rossz a perf/W mutatója, mert általános GPU-nak készültek, így nem tudtak hatékonyak lenni gamingben. (De majd jön Abu és megmondja.) Majd jött az RDNA, ami csak játékra lett kigyúrva (véletlenül csákánynak is kiválók ), itt kezdődött a javulás.
Ami a Power Limit állítást illeti: azért el kell ismerni, hogy sokkal felhasználóbarátabb a driverhez tartozó GUI-n egy csúszkát állítani, mint parancssorból vagy 3rd party alkalmazásból variálni. (Saját tapasztalat, amikor kőfejtő munkához állítok be egy AMD vagy NV kártyát.) Ettől függetlenül persze adott a lehetőség, de valószínűleg a userek kis része babrál bármi ilyesmit. Mennyen a kártya, oszt gyüjjön az FPS!
#tarcsad
-
Abu85
HÁZIGAZDA
válasz FLATRONW #37923 üzenetére
Nagyon jó képeket raktál be, amiből láthatod te is a problémát.
Az újabb generációknál az összehasonlított VGA-k között vagy generációs különbség volt, vagy nem voltak egymás versenytársai a teljesítmény alapján.
Eközben a GTX 480 és a HD 5870 teljesítménye egymáshoz közel áll, és így is olyan lemaradásban volt a GTX 480, hogy a fenti különbségeket összehozta. És ez azért volt, mert ugyanazt a teljesítményt sokkal-sokkal-sokkal magasabb fogyasztás mellett biztosította.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz FLATRONW #37921 üzenetére
Ha neked ez jólesik, de a Fermi és a TeraScale 2 között lényegesen nagyobb különbség volt, mint utána bármelyik generációban a két dizájn között. Nem véletlenül jöttek a fermis sütős mémek.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz FLATRONW #37912 üzenetére
A fogyasztás elég baj akkor, ha a konkurencia hozza ugyanazt jóval kevesebb energia elégetésével.
#37914 Devid_81 : Nem lesz EOL az Ampere. Eleinte semmiképpen, mert árban nem fedik át egymást. Később persze a GA102 megy, de a GA104 jó darabig marad.
#37915 b. : Biztos nem lesz elhozva a Samsungtól. Túl drága lenne, és túl kicsi haszna. A Samsung tudja gyártani ameddig kell.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Petykemano
veterán
válasz FLATRONW #37252 üzenetére
Biztosan okoz. Kábé annyit, mint amikor a 4x Pcie-s kártyát beteszed PCie3-as alaplapba.
a HWBU a videós tesztben megemlítette, hogy ritkán, de előfordult , hogy egy tesztet kétszer vagy háromszor kellett lefuttatnia, és nem a 4GB VRAM miatt, hanem mert amíg sikerült a szükséges adatokat beolvasni - az első futás során - addig dadogott.De azért szerintem van különbség a kettő között. Az első PCIe3-as alaplap 2011-ben jelent meg. még a felsőkategóriának nehezen nevezhető 2015-ös R7 360 is (ami persze átnevezett termék) 16x széles PCIE3 busszal rendelkezett! A PCIe4 platform szinten a felső kategóriában 2019-ben jelent meg, az olcsóbb termékek (alaplap/cpu) még talán ma is PCIe3-mal jelennek meg. Még a 2022-es Barcelo is csak PCIe3 (ráadásul csak 8x széles). Tehát még bőven forgalmaznak a gyártók régebbi szabvánnyal rendelkező platformokat, de már a megjelenést követő két és fél évvel elkezdik szűkíteni a sávok számát.
Valószínűleg a PCie5-tel is ugyanez lesz.
Egyébként azt nem értem, hogy .... azt értem, hogy azért PCi3 a PCIE4 helyett, és azért x4 vagy x8 a nagyobb helyett, mert spórolnak. De igazán megtehették volna azt a szivességet, hogy a CPU/MB terén és a GPU terén egységes spórolási metodikát alkalmaznak, nem pedig azt, hogy a platform terén spórolunk a szabvánnyal a fogyasztás miatt, a GPU-k terén pedig spórolunk a busz szélességgel a lapkaterület miatt, mert így épp a legrosszabb kombinációk jönnek ki.Találgatunk, aztán majd úgyis kiderül..
-
Abu85
HÁZIGAZDA
válasz FLATRONW #37049 üzenetére
Klasszikus hődiódából már egy sincs az AMD-nél. A régebbi lapkákban, illetve a még klasszikus rendszerű, más gyártótól származó dizájnokban 1-3 hődióda szokott lenni. Attól függ, hogy mekkora a lapka. Ha nagy, akkor érdemes többet alkalmazni. Az elhelyezést pedig a prototípuson végzett terhelésminta segíti. Azon látják, hogy a lapkának mely részei terhelődnek leginkább, és ajánlott oda rakni a hődiódá(ka)t.
A klasszikus megoldás sem rossz, de pontatlan. Viszont vannak nagyon jól alkalmazható trükkök rá. Például az NV úgy számolja a turbót, hogy a mért hőmérséklethez hozzáadnak +15°C-t, mert annál a legforróbb pont tuti nem lehet forróbb. Nem tudják mérni, de egy egyszerű trükkel "szimulálják". És így pontosabb lehet a turbó is, méghozzá anélkül, hogy a lapka komplex hőtérképet kelljen hozzá alkalmazni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz FLATRONW #36504 üzenetére
Persze, hogy javul. De ez főleg amiatt van, hogy az NV DX12 drivere valami beteg módon hajigálja a kódba a barriereket. Pont tegnap találtam egy olyat, amikor egy erőforrást olvasott a program, a driver pedig behajított egy barriert egy másik munkafolyamat elé, ami szintén csak olvasni akarta azt az erőforrást. Mire gondolhatott a driver? Félt az olvasás utáni olvasásfüggőségtől? Nem normális, ahogy az NV DX12 drivere működik, kb. egy idiótának is fel kellene tűnnie, hogy semmi értelme az éppen olvasott erőforrások elérését korlátozni, ha egy másik folyamat is csak olvasni akarja.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Alogonomus
őstag
válasz FLATRONW #36501 üzenetére
Több játék esetében pont a két kártya közötti teljesítménykülönbség jelenti a lehetőséget az eggyel magasabb részletesség vagy felbontás eléréséhez. Az 580 esetében egyébként szerintem inkább a Doom Eternal a kiugró érték, nem is a RE: VIII.
A tesztből is kiderül, hogy míg az 580 4 játékban (RS 6, Doom, RE: VIII, CP: 2077) volt jelentősen erősebb, és 2 játékban (WD: Legion, Apex) határozottan erősebb, addig a 1060 egy játékban volt jelentősen erősebb(Dirt 5), és egy másik játékban (Star Wars) határozottan erősebb. Ráadásul a Dirt 5 eredményeket Steve is valami hibának tulajdonítja.
Vagyis az új játékokban, mint a Doom, RE: VIII, CP: 2077, WD: Legion az 580 egyértelműen erősebb, ahogy fogalmaztam is a korábbi hozzászólásomban, hogy a 1060 a "tavaly karácsonyi szezonra megjelent játékoktól kezdve már nem igazán elég".
Jó, a Doom-ra FHD mellé elég, de a 133 vs 169, vagy 105 vs 125 azért lényeges különbség a képkockasebességben.[ Szerkesztve ]
-
Alogonomus
őstag
válasz FLATRONW #36496 üzenetére
Még ha a Tom's Hardware listája kicsit túlzó is a 16 és 22 százaléknyi különbségekkel, az új játékokban az 580 a valóságban is bő 10 százalékkal, míg az 590 bő 15 százalékkal erősebb, mint a 6 GB-os 1060. Az a 10+ % pedig bőven jelentheti a különbséget egy éppen már szaggató, meg egy éppen még nem szaggató játékélmény között.
-
félisten
-
-
BiP
nagyúr
válasz FLATRONW #35442 üzenetére
csak a linket kellett volna elolvasni
NVIDIA is working on a next generation GPU architecture based on the mathematician Ada Lovelace
wiki (mert amúgy én sem ismertem): [link]Yutani: na igen, kinek mi (ki) ugrik be
De hát ez az egész 30-as széria bevezetése egy nagy torkos, szóval nem csoda, ha ezen a vonalon kutattak valami passzoló nevű tudós után -
arn
félisten
válasz FLATRONW #30717 üzenetére
Engem jobban erdekelne ez az ut... mint prociknal, lehessen tdpt allitani, aztan a kartya dolga abbol mit hoz ki. Vagy homersekletmaximumot, zajszintet allitani. Aki hatekonysagot akar, azt is kapnat, aki tobb teljesitmenyt, azt.
facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld
-
MPowerPH
félisten
válasz FLATRONW #30587 üzenetére
Szerintem aki ilyen aron vesz VGA -t, az nagy ivben tojik a fogyasztasra. Felolem egyen 500W -ot, de 4k -ban se reccenjen a kep, es legyen fix az FPS.
De persze a 1,9 performace/watt az jo marketing duma. Mindenki igy csinalja, csinalna, ezen nem kell fennakadni.
Itt valszeg tenyleg kapsz valamit a penzedert, elnezve a speceket.[ Szerkesztve ]
Don't Tread On Me
-
-
nubreed
veterán
válasz FLATRONW #28539 üzenetére
Hol írtam én ilyet? Az FHD mainstream. Az emberek túlnyomó többsége nem fog 1000 vagy akár 500$ kártyát venni, ez csak az egész piac kb 10% -a talán. Tudom a Steam HW survey nem releváns, de mégiscsak egy indikáció arra, hogy miből mennyi van az emberek konfigjaiban. Meg lehet nézni mennyi 2070S/2080S/Ti, stb van mondjuk egy 1060 -hoz vagy akár egy AMD580/590 -hez képest. Igen, valaki feljebb vált az évek alatt, de a nagy többség ugyanebben az árkategóriában gondolkozik majd továbbra is, azaz ők nem fognak 500 - 1000$ kártyát venni, ők max 250$ -ből akarják kihozni a maximumot. Amíg ezek a kártyák nem tudják nevetve a 4K-t nem diavetítésben, addig nem lesz mainstream a 4K. Így már érthető?
We are the first of cyber evolution. We are the first to program your future.
-
-
félisten
-
Carlos Padre
veterán
válasz FLATRONW #27333 üzenetére
Hallgass Cerni-re, ő lehet jobban tudja. A 2233MHz az "alapórajel" azt képes tartani minden gép minden körülmények közt, azt lehet/kell célozni a programozáskor, a hardver meg majd teszi a dolgát és visszaveszi a tempót ha nincs rá szükség a fogyasztás és a melegedés kordában tartására. Gyakorlatilag pont fordítva működik, mint amit eddig megszoktál. Egy általad felvázolt gépre nem lehetne játékot optimalizálni, és hatalmas lenne a szórás is a gépek közt, egyiken laggolna mint az állat, a másikon vajpuhán futna.
Genyó vagyok, ha hülye vagy megmondom.
-
félisten
válasz FLATRONW #27102 üzenetére
ha ez az árazás igaz, [link] azért nem félnek árazni. PS5 550$ az alap verzió és 650 $ a nagyobb SSD verzió. az Xbox szerintem ennél drágább lesz vagy legalább ennyi.....ez azt jelenti , hogy nálunk kisebbik 200-220 ezer forint nagyobbik pedig 230-250 ezer forint lesz....
elfelejthetjük azt hogy a kisebb kártyákkal le kell mennie Nvidiának árban..[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
GeryFlash
veterán
válasz FLATRONW #26964 üzenetére
,, Ettől függetlenül annak a kevés embernek is aki használja a HBCC-t, arányaiban kb. nagyobb az esélye hogy gondja legyen vele, mint az Intel sebezhetőségekkel. "
Ez egy fura arányosítás. Hasonlítasz egy csoprotnak egy nagyon szűk szegmensét hogy esetleg nagyobb az esély (még ez se biztos). Miközben a becsült számok valahol úgy alakulhatnak hogy ‹100 embernek okozhatot problémát az HBCC és mondjuk több tízezres/százezres nagyságrend az Intel sebezhetőségei. Ugye mennyire nem ugyanaz a kategória?
Ettől függetlenül abban egyetértek, hogy Abu kolléga nyugodtan írhatott volna erről cikket. Előtte valami olyan duma ment hogy hát úgyse használják a felhasználók, inexkluzívat talán a Far Cryon kívül senki nem támogatta, és talán azért nincs már a NAVI-nál hogy megvegyék az akkor topnak számító Radeon VII-et (ezt nem Abu mondta, csak itteni találgatások voltak amit Abu nem cáfolt azzal hogy nem srácok, arra van szó hogy az AMD letiltotta mert van egy kisesély hogy gallyra vágja az OS-t).Hi, i'm new to APHEX TWIN, so i was wondering how much the IQ requirements was to enjoy his stuff. and understand all the underlying themes, because its really complex stuff. I have IQ of 119 but i heard that you need atleast 120 is it true?
-
Callisto
őstag
válasz FLATRONW #26962 üzenetére
Érdekes. Biztos hozzá nem értő laikus lehetsz. Én is hekkeltem már Intel CPU-kat, de a HBCC-vel sosem volt gondom.
Igaz egy ember nem mérvadó, de hány hacker célpontja vajon egy PC (a sok-sok CPU-val) és hányan használnak professzionális célra HBCC-s kártyát... Nem beszélve arról, hogy előbbi tud igazán kárt okozni, ha odáig jut valaki. Elgondolkodtató, ha már hülyeséget írunk, nem?"A wise man can learn more from a foolish question than a fool can learn from a wise answer." - Bruce Lee
-
Abu85
HÁZIGAZDA
válasz FLATRONW #26957 üzenetére
Mert a Vega esetében még nem volt annyi tapasztalat vele. Hasonló a helyzet, mint az Intel procik sebezhetőségénél. Amikor kiadták a hardvert még nem tudták, hogy lyukas. Viszont miután kiderült, sorra jönnek az új lapkák, amelyek foltozzák a lyukakat. Ugyanez a helyzet szoftveres szinten az exkluzív cache móddal. A teszteken jó volt, aztán jött a szélesebb körű elérhetőség, ami már feltárt némi problémát. Ezért is lesz erre megoldás az új WDDM-ben, mert előbb a hibát kell megtalálni, hogy javítani lehessen.
(#26958) GeryFlash: Mert fícsőrként el lett adva, így már nem tiltják le. De alapértelmezetten nincs bekapcsolva. Sokan amúgy sem tudják, hogy mi az, így hozzá sem nyúlnak a driverben.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz FLATRONW #26954 üzenetére
Kb. hasonló a gyakorisága, minthogy egy DirectX 12 vagy Vulkan alkalmazás fagyása az OS-t úgy kivégzi, hogy többet nem bootol be. Csökkentett módban sem. Nem gyakori, sőt, kifejezetten ritka, de megvan rá az elméleti esély. A paraméter sűrű állításával csak növeled az esélyét, mint ahogy az explicit API-knál ugyanezt a problémát, ha többször futtatsz ilyen alkalmazásokat. A legtöbb cégnek mások az ingerküszöbök az elfogadható kockázatoknál. De egyébként ezt amúgy is megoldja az új WDDM, ami már tud úgy kidögleni az OS alól, hogy a fájlrendszerben károsodás maradjon utána.
Ezek mind kockázatvállalások. A DirectX 12 és a Vulkan esetében azért vállalják fel a kockázatot, mert a nyereség elképesztően magas egy nagyon elhanyagolható mértékű, kvázi OS bedöglésével járó kockázatért cserében. A HBCC esetében a hierarchikus lapozás a fontos, ami eleve nincs exkluzív cache módban, tehát nem biztos, hogy megéri kockáztatni egy végzetes fagyást, miközben inkluzív cache módod mindenképpen lesz.
Emellett a DirectX 12 és a Vulkan esetében azért vannak a validátorok, hogy szóljanak, ha valami para van az alkalmazással, és a fejlesztőnek komoly felelőssége egy programot úgy kiadni, hogy a validátor nem jelzett problémát.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
Állásajánlatok
Cég: Marketing Budget
Város: Budapest