- Kaspersky Antivirus és Internet Security Fórum
- Windows 11
- Crypto Trade
- Aliexpress tapasztalatok
- Sarokba szorította a Huawei az Apple-t Kínában
- HBO Max & OD topic
- WordPress tartalom kezelő rendszer (CMS)
- ASUS routerek
- Folyamatosan hazudott a bitcoin állítólagos feltalálója
- Facebook profil letiltás kapcsolt ismeretlen Instagram fiók miatt
-
IT café
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
kisfurko
senior tag
válasz Jack@l #48232 üzenetére
Már nagyon régóta felosztják a képernyöt négyzetekre, és azok kerülnek a work groupokba. Amikor bejött az elágazás a shader programokban, akkor volt is ebböl gond, hogy le kellett futtatni a csoportot így is, és úgy is (talán Ati x1800, x1900, és Nvidia 6800 idejében).
A memóriát se egy vezérlön keresztül érik el, hanem 4-6-8 van, crossbarral. Már egy GPU-s megoldásnál is osztoznak a vezérlökön a GPC-k, SE-k. A késleltetés biztos nöni fog, de azt cache-el lehet ellensúlyozni, valamint a GPU-k nem annyira érzékenyek rá, mint a CPU-k. Azért a Ryzeneken is látszik, hogy nem olyan durva, ha másik processzortól jön az adat. Ha van elég sávszélesség a processzorok között, kellöen gyors a busz, akkor azért müködhet, még ha nem is 100-os hatékonysággal. Majd meglátjuk, minden a busz sebességén és késleltetésén múlik. -
kisfurko
senior tag
válasz Jack@l #48250 üzenetére
Szerintem mindegy, hogy árnyékot, vagy akármit számolsz. Persze, abban lehet valami, hogy ha a blendinget, stencilt használod, akkor a nagyobb RBE (ROP) terhelés a megnövekedett késleltetéssel negatívan hathat a teljesítményre (mint az R600-nál).
Én úgy képzelem el, hogy a vezérlök elött lesz egy naaagy cache, amiben összefut minden shader engine és a másik chipet összekötö interface (infinity akármi). Ami kérés a másik chipböl jön, az ugyanúgy vár a DRAM controllerre, mint a lokális shader engine-ek. Vagyis direkten már semmi sem fogja elérni a memóriát, minden az L3 (L4?) cache-en keresztül fog menni. Hogy ehhez mit szólnak majd az RBE-k, nem tudom, mert régen próbálták már az RBE-t leválasztani a DRAM controllerröl (R600), de az nem jött be nekik. Hátha most ügyesebbek, vagy a mai workloadok jobban elviselik. -
kisfurko
senior tag
válasz Busterftw #49907 üzenetére
Pontosan téged célzott meg az Nvidia marketing. Azért nevezték 3080-nak, azért húzták maximumra, hogy kifogják az AMD vitorlájából a szelet, hogy csak a 3080-at érte be. Csak a vak nem látja, hogy eredetileg nem ez volt az Nvidia terve. Ha még jobban rámászott volna a 6xxx, akkor a 3090 lenne most a 3080, azaz semmit se jelentenek a kategóriáid. Aztán fél-egy év múlva jönne a refresh, mert megengedhetik.
-
kisfurko
senior tag
-
kisfurko
senior tag
válasz Petykemano #49919 üzenetére
Valahogy így gondolom én is, bár én még 30%-os frekvencianövekedést is nagyon eltúlzottnak tartok. Az én tippem max. 15%.
-
kisfurko
senior tag
válasz KillerKollar #52097 üzenetére
Ha igaz, hogy nincs elég GDDR6X, akkor kényszerből van 10GB a kártyán, nem pedig készületlenül érte őket az új konzolgeneráció. Ehhez jön még, hogy utolsó pillanatban a GA102-nek kellett beugrania a GA104 helyére, mert lemaradtak volna.
-
kisfurko
senior tag
válasz Busterftw #53480 üzenetére
De, ott tartunk. Egy minimum tízszeres gyorsulás kéne, hogy egyáltalán lehessenek egyszerűbb ray tracelt játékok. Az, hogy a képernyő egyes részein, kevesebb, mint egy minta/pixel mintavételezéssel, max. a 2. ütközésig trace-elünk, igen messze van egy normális ray tracinghez. Ahhoz 1-4 minta kell pixelenként, úgy 5-6 mélységig, és ez is valami DLSS-sel, hogy ne legyen nagyon "hangyás" a kép.
Gyártástechnológia váltásonként 50-60% a maximum manapság, ami elérhető, szóval messze van ez még. -
kisfurko
senior tag
Már leírtuk egyszer, hogy nem a gyártástechnológián csúszott el az Nvidia, hanem gyengébbre várta az AMD-t. A Titan szintű chipet (102) kellett 3080-ként eladnia, hogy megfogja a 6800-at, eredetileg a 104-es chip lett volna a 3080, mint korábban.
Az árakkal meg kár is foglalkozni, azok teljesen irreálisak, csak a hülyék és a nagyon rászorultak (elromlott, kell az iskolához stb.) vesznek meg ennyiért valamit. -
kisfurko
senior tag
Ok, ebben megegyezhetünk.
Nekem mindegy, hogy az AMD lett a vártnál erősebb, vagy az Nvidia lassabb a Samsung miatt. Szerintem is-is. Nehéz utólag megállapítani, hogy túl kellett-e húzni, vagy nem érték el alapból a tervezett frekvenciákat. Ezt csak az Nvidia tudja, de ők hallgatnak, mint a sír, mint mindig. A következmény a lényeg, hogy a 102 ment 80-asnak. Ettől vannak a hülye teljesítménylukak. -
kisfurko
senior tag
válasz Yutani #55551 üzenetére
Nem az AMD és Nvidia miatt kerülnek ennyibe, úgyhogy ez nem fog túl sokat változtatni. Pláne, hogy ez is TSMC-nél készül, tehát sok nem lesz belőle, olcsó se lesz (bár, intel veszteséggel is adhatná), és a legnagyobb se lesz olyan gyors, mint a konkurensek legnagyobbja, hanem kb. mint a közepesek, legjobb esetben. A kezdeti driver problémák is szinte garantáltak. De ne legyen igazam, mint a Larrabeenél volt.
-
kisfurko
senior tag
Ezt sem jelenthetjük ki, nagyjából semmit se tudunk, csak azt, mennyit tudnak/akarnak gyártani.
#56656
Külön-külön kellene ismernünk a crypto/gamer arányokat mindkét gyártónál, de még akkor is csak óvatosan jelenthetnénk ki valamit, mert ha a crypto minden felesleget felszív, már torzítja a maradék gamer mennyiséget. -
kisfurko
senior tag
válasz Petykemano #57698 üzenetére
Lehet, hogy azért kisebb a cache az MCD-ben, hogy csökkentsék a latencyt. Azt se tudjuk, hogy a GCD-vel való kapcsolat mennyi helyet igényel. Simán valami gazdaságossági dolog is lehet, hogy pl. 10-20 százalék die area aránytalanul több időt/pénzt igényelne, vagy sokkal nagyobb kihozatalt akarnak.
Eddig a cache chipen belül volt, nyilván a belső busz gyorsabb, mint a két chip közötti, tehát valamivel kompenzálniuk kell a sávszélesség-veszteséget, ezért a másfélszeres busz, szerintem. -
kisfurko
senior tag
válasz Petykemano #57700 üzenetére
Szerintem is drága mulatság ez az MCD-sdi, de lehet, hogy idővel a GCD-vel a nyereség ezt kompenzálni tudja, ki tudja. Kíváncsian várom az árakat, meg a teszteredményeket.
-
-
kisfurko
senior tag
Bocs, de nem lehetne ezt a marketinges, meg Csabika sztrímelni akar témát máshol megvitatni? Szerintem ez a topic még mindig a jövőben érkező AMD dolgokról szól...
-
kisfurko
senior tag
-
kisfurko
senior tag
Vettél már részt szabvány létrehozásában? Évekbe kerül. Csak a kidolgozás. És akkor még rá se bólintott az összes résztvevő a boardban. Ha csak azt nézed, amit az átlagember láthat, akkor persze, hogy a szemednek fogsz hinni. Amit te kiszivárogtatásnak hiszel, az semmi ahhoz képest, amik tényleg vannak. Amikor kiszivárog valami, akkor gyakorlatilag majdnem készen van.
Évekre előre terveznek. Nálunk is olyan prototípusok vannak, amik ki tudja, hogy egyáltalán meg fognak-e jelenni, s ha igen, akkor is évek munkája. Szerinted, amikor a követleményeket összeállítják, akkor nem kezdik el a szabványt hozzá csinálni? Ezt is csak akkor, ha a meglévőkbe nem lehet beleilleszteni, mert jó nagy kockázat, semmi sem garantálja, hogy a többiek rá fognak bólintani, pláne, ha csak másodhegedűs vagy. Amennyiben nem csak szoftveres szabvány, akkor még több idő, ehhez hozzájön még a még nagyobb pénzügyi kockázat.
És senki nem mondta, hogy az AMD-t követte az Nvidia, hanem, hogy dolgoztak egy közös szabványon, amiből kiugrott az Nvidia.
A levédetés meg nem így működik. 1-2 hónap, amíg megvizsgálják, hogy van-e ilyen, le lehet-e védetni, aztán benyújtják, és onnantól él, ha majd évekkel később megítélik.
A G-Sync meg nem szabvány, azt egyedül az Nvidia hozta létre. -
kisfurko
senior tag
Na, ez így már teljesen helyes értelemezés. Csak nem tudjuk, hogy a FreeSync (aminek az AMD csinált ilyen marketing nevet) tárgyalások mikor, mennyire haladtak.
Én megértem az Nvidia lépését is, valószínűleg nekik nem felelt meg az aktuális állapota a szabványnak, de ez is csak a szokásos nem etikus üzleti lépés, amit megszokhattunk már tőle, belekényszerítette a gyártókat, adott is nekik vezérlőlapot. A prémium gamerek nyilván jól jártak a végtelen pénztárcájukkal. De ezért is a legjobb chiptervező cég az Nvidia, mert remekül érzi ezeket a dolgokat. Megteheti, mert piacvezető. -
kisfurko
senior tag
válasz Busterftw #61587 üzenetére
Nem, nem olyan, mert egy szabvány megalkotása jóval hosszabb folyamat, mint egy saját fejlesztés keresztülvitele. A DLSS meg az FSR egyik se szabvány, csak egy implementáció egy adott problémára. Tudom, hogy az nvidia-only emberek számára ez másodlagos, de ha rendes szabványban jön ki a G-Sync tudása, akkor nem lett volna az "én monitorom csak ájemdével megy, az enyimé meg csak envídiával, vennem kell másikat".
-
kisfurko
senior tag
Mert nem racionális, amit írsz, csak azt gondolod, mert nincs háttérismereted a félvezetőiparról.
Az tök normális, hogy egy év, mire az elfogadott szabványból termék is lesz. Te kockáztatnál százmillió dollárokat egy még nem elfogadott módosítással? És ez kizárja, hogy előtte hónapokig/évekig piszmogjanak a szabványon, hogy minden résztvevőnek megfeleljen?
Amit te ebből látsz, az a végleges eljárás, az előtte levő egyeztetéseket nem. -
kisfurko
senior tag
Felőlem azt hiszel, amit akarsz, nem fogom megmondani, hogy ki vagyok, meg melyik chipgyártónál dolgozom Nem is beszélhetek róla, hogy min dolgozom, csak ami már be van jelentve (gyakorlatilag majdnem kész).
Abban igazad van, hogy nem vagyok sem a VESA tagja, de még csak nem is volt részem a szabványban, mindössze próbáltam utalni rá, hogy nálunk ez hogyan megy, milyen időintervallumok vannak, mennyire nyögvenyelős egy ilyen szabvány megalkotása. -
kisfurko
senior tag
válasz Busterftw #61598 üzenetére
Ezt senki nem mondta. Még egyszer. A G-Sync nem szabvány.
Nem látjuk, hogy a G-Sync dolgait nem akarta-e már korábban az Nvidia a szabvány részévé tenni, amin a többiek meg akadékoskodtak, mert nekik nem jött volna ki a matek, meg az időzítés. Erre Nvidia implementálta a monitorba kerülő modult, hogy a chipjében lévő G-Sync képes hw feature-t be tudja mutatni, és innentől szart nagyívben az egységesítésre, részéről a munka letudva. Mivel főgémerék úgyis az ő portékájukat veszik, ezért sokat nem kockáztattak, a drágulást meg átrakták a monitorgyártókra, akik meg a főgémerekre a prémium érzésért cserébe.
Hogy így volt-e, sosem tudjuk meg, mindenesetre az FPGA használata jól mutatja, hogy nem egy végleges megoldás volt (mert vagy kicsi széria, úgyis jönni fog a "rendes" implementáció a gyártótól, vagy nem elég kiforrott, szükséges az FPGA újrakonfigurációs képessége). -
kisfurko
senior tag
Ez egy általános probléma az iparágban. Lassan a 90-es évek szoftver-válságában leszünk. Vannak az igénytelen C programozók, akik viszik a hátukon a drivereket, low-level dolgokat, onnan minden, bocsánat, de értelmes fejlesztő elhúz, háta közepére sem kívánja az igénytelen, redundáns, agyonmakrózott fostengert. A nagyrész meg nem tud értelmes szoftvert csinálni, mert az erőforrászabáló, ilyen-olyan keretrendszereken kívül nem ismeri a valóságot, semmit nem ért a hardverekhez. Ehhez hozzájön a csoda agilis fejlesztés, ami a nem usereknek készült szoftvernél inkább hátráltat, a "könnyebb" megoldások felé terel, mert nincs idő rendesen megírni a kódot, mert lejár a sprint, és nincs belőle látható eredmény...
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- ASUS RTX 3060 Ti 8GB GDDR6 TUF GAMING OC Eladó! 92.000.-
- ASUS TUF Gaming GeForce RTX 4070 Ti 12GB
- Gigabyte AORUS GeForce RTX 3070 Ti MASTER , 8GB GDDR6X, 256-bit GV- N307TAORUS M-8GD - Garancia
- MSI GeForce RTX 3060 8GB GDDR6 Ventus 2X OC /újszerű/gyári/csavarmatricás/ (BESZÁMÍTÁS)
- PowerColor RX 5700 XT 8GB GDDR6 Red Dragon Eladó! 55.000.-
Állásajánlatok
Cég: Ozeki Kft.
Város: Debrecen
Cég: Alpha Laptopszerviz Kft.
Város: Pécs