Új hozzászólás Aktív témák
-
BiP
nagyúr
Az AMD helyében én megvenném/alkalmaznám a fejlesztő csapatot, hogy azt a tudást nálam kamatoztassák.
-
Alogonomus
őstag
Nem volt elegáns dolog, hogy az AMD így kitolatott a projektből, de az Nvidia márciusi döntése már egyébként is eléggé meggyengítette a ZLUDA helyzetét.
-
martonx
veterán
Iszonyú kínos helyzet az AMD-nek, hogy sok program nagyságrendekkel gyorsabban fut a CUDA-nak köszönhetően a régi 1070Ti-omon, mint az új RX 6700XT-n.
Én kérek elnézést!
-
Predatorr
őstag
Nekünk meg nincs szükségünk a sokat fogyasztó, gyenge, bugos AMD VGA-kra.
[ Szerkesztve ]
"Amely probléma nem megoldható, azt meg kell szüntetni."
-
Nemfértkiaze
kezdő
válasz Alogonomus #3 üzenetére
Az nv cucca a cuda. Gondolom elkerülik a pereskedést.
-
nuke7
veterán
nyilván ha nem játszol akkor nem érdemes AMD-t venni.
Raytracing-ben kicsit még jobbak, de LLM training-ben meg nyilván behozhatatlan az előnye az nvidia-nak (szerk. egyelőre ) .
Viszont gamer-ként semmi értelme nvidia gpu-t venni, konkrétan ugyanazért az árért egy kategóriával jobb AMD-t kapcsz[ Szerkesztve ]
https://youtube.com/user/nuke7
-
Busterftw
veterán
válasz Alogonomus #3 üzenetére
Márciusban csak a driverben frissült az EULA, de ez a honlapon már több éve így volt. Tehát nem a ZLUDA miatt reagálták le márciusban.
Itt ph-n nem frissült a cikk."Nvidia has banned running CUDA-based software on other hardware platforms using translation layers in its licensing terms listed online since 2021, but the warning previously wasn't included in the documentation placed on a host system during the installation process. This language has been added to the EULA that's included when installing CUDA 11.6 and newer versions."
-
martonx
veterán
"Viszont gamer-ként semmi értelme nvidia gpu-t venni, konkrétan ugyanazért az árért egy kategóriával jobb AMD-t kapcsz"
Az a baj, hogy ez az elmélet. A gyakorlat meg az, hogy bugos a driver, gyakran még olyan alap játékok se futnak rendesen AMD GPU-n, mint pl. Fortnite. Vagy csak olyan luxusod támadna, hogy nyáron underclock-old a hősugárzód (RX 6700 XT), na minden driver frissítésnél elfelejti a beállításokat az AMD nyomorult szarja.
Ha meg az ember véletlenül videót vágna, 3D progival szórakozna, netán AI-val, akkor az AMD tudománya rögtön megáll
Szóval szvsz leginkább pénz pocsékolás AMD-t venni Mondom ezt AMD fanként, RX 460, RX 570, majd RX 6700 XT tulajként.
A valahogy hozzám keveredett 1070 Ti röhögve viszi a nem játék terheléseket, miközben Fortnite-ban kétszer annyi FPS-t nyom, mint a 6700 XT. A minimum FPS-ről nem is beszélve.Én kérek elnézést!
-
nuke7
veterán
hát én 6800-al tolom 3060ti árban és azt cserélve és maximálisan meg vagyok vele elégedve
a driver valóban szeret felejteni de pl. nem pörgeti magát akkor se a kártya ha 3-4 monitor van rákötve... ehhez a mutatványhoz külön progit kellett leszedni az nvidia kártyához és abban manulálisan underclockolni meg megmondani neki, hogy mi minősül 3d terhelésnek... szóval az se jobb.Vegas pro nekem teljesen jól bánik az AMD hardveremmel, AI-ra valóban nem venném, de ezt irtam is...
[ Szerkesztve ]
https://youtube.com/user/nuke7
-
félisten
"Viszont gamer-ként semmi értelme nvidia gpu-t venni, konkrétan ugyanazért az árért egy kategóriával jobb AMD-t kapcsz"
Ez konkrétan hazugság.
Alza árak a legolcsóbat néztem mindegyikből FHD vagy 1440P computerbase.
- RX 7600= 113 K , RTx 4060= 116 K. 4060 raszterben erősebb 4 % kal, RT ben 17 % kal.- RX 7600XT = 144 K, RTX 4060 Ti = 154 K.. RTX 4060 Ti 15 % kal erősebb , RT ben 23% kal [link]
-7700 XT = 195 K 4070 = 225 K raszterben a 4070 14% kkal erősebb RT 27 % kal [link]
- 7800XT = 216 K 4070= 225 K, 4070 super =243K a 7800XT 6 % kal erősebb raszterben mint a 4070 és 10 % kal gyengébb mint a 4070 super. RT ben a 4070 23 % kal erősebb mint a7800XT a 4070 super 45 % kal erősebb.
- 7900 GRE : 319 K , 4070 Ti =303 K , 4070 Ti super = 353 K. A 4070 ti 13 % kal, RT ben 28 % kal a super 27 % kal erősebb raszterben és 55 % kal RT ben... [link] [link]
- 7900XT= 324 K 4070 Ti super = 353 K 4 K raszterben egál, 1 % kal erősebb a 4070 Ti super , RT ben 30% kal erősebb.
- 7900XTX =439K, 4080 Super =470K. 4 K raszterben egál, 1%, RT ben 30 % kal erősebb a 4080 ... [link]
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
joysefke
veterán
Nekem is 6700XT-van, egy Red Devil. Ezek a kártyák kifejezetten energiahatékonyak tudnak lenni, ha minimálisan korlátozva van a fogyasztásuk. Az enyémen ehhez van BIOS kapcsoló Silent / OC állásokkal. Érdemes silentre állítani. Ha erre nincsen lehetőség, akkor 170W-ra korlátozni.
-
BlueSteel
tag
A 7900 gre Alzán hónapokig 250k korul tanyázott, csak most elfogyott a készlet a Sapphireokbol. A többi teljesen valid, amit írsz.
Nem beszélve pl.a DLSS-ről és egyéb feature-okrol. Nálam egy Asus Dual 4070 maradt egy 7800xt-vel szemben. Remélem a következő Radeon generáció előrelépés lesz RT-ben, egyéb dolgokban, lesz AI alapú felskálázás, mert szeretnék majd váltani.
-
anulu
félisten
"de pl. nem pörgeti magát akkor se a kártya ha 3-4 monitor van rákötve..."
ööö, 3 monitor (Samsung G5, DP-n, Surrounddal 7680x1440) most meló közben (leginkább browser alapú dolgok). ez azért nagyon nem a "szétpörgeti magát"
gyári nv driver van csak fent, semmi egyéb mókolós cucc.[ Szerkesztve ]
"Jelenleg a cloud nem más mint a sales által elhazudott és eladott utópia, egy ígéret, csalánba csomagolt mézesmadzag, amit az üzemeltetés f@$zával vernek" | Feel the power! Intel Core i7 | iPhone 14Pro 256GB | iPad Pro 2017 64GB
-
tranceplanet
addikt
Ácsi, tudod értelmezni?:
" Iszonyú kínos helyzet az AMD-nek, hogy sok program nagyságrendekkel gyorsabban fut a CUDA-nak köszönhetően a régi 1070Ti-omon, mint az új RX 6700XT-n. "
Segítek
Egyik AMD sem rendelkezik CUDA maggal, más architektúra! A szoftver fejlesztők CUDA magra optimalizálnak, ez mondjuk azért van mert az Nvidia a boss, kb 75% piaci részesedés körül.
Megvan a Gsync történet? Most már freesync is elterjedt, érted "free". Megértem, hogy az Nvidia szeretne monopol helyzetben lenni, nincs messze tőle és mindent lenyomni a VGA vásárlók torkán erőből, nem gondolva rá nekik mire van igényük. Szerintem gusztustalan a hozzáállás részükről, persze értem le akarja uralni a piacot, ez az AMD nedves álma is. AMD kicsit korrektebben áll a piachoz, nem tolja fullba a kretént. Mielőtt bárki fanboy vádjával élne, mindkét gyártótól van termékem. Nekem nem szimpi az a bőrdzsekis csávó." Könnyű döntések-->Nehéz élet ; Nehéz döntések-->Könnyű élet " - Válassz!
-
Kansas
addikt
A kapcsoló tipikusan nem igazán, hanem a ventiket leszabályozza, és kicsit elengedi a melegedést. A frekiket minimális mennyiségben lejjebb húzza, TDP-kerethez tudtommal nem nyúl.Amikor megjelent, több teszter(pl GN) is beszélt róla, tesztelte a fogyasztást/teljesítményt mindkét kapcsolóállásnál.
Olyan esetben javasolt ha a ház jól szellőzik és/vagy nem vagy hőfok-náci.[ Szerkesztve ]
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
martonx
veterán
válasz tranceplanet #18 üzenetére
Tudom, hogy nem az AMD tehet róla, arról tehet, hogy olyan árban adja a cuccait, mintha jók lennének. Játékra nem jók, ezt kitárgyaltuk. Általános gyorsító feladatokra se jók, mert mindenki Cuda-zik.
És itt kanyarodok vissza a cikkhez, hogy nem is látszik, hogy az AMD tenne valamit ez a helyzet ellen.Én kérek elnézést!
-
joysefke
veterán
Nálam emlékeim szerint a fogyi is lejjebb megy. (Red Devil)
#22 martonx:
Nálam jól működik a 6700XT. Fortinte-t nem ismerem, de ha egy játékban a 1070Ti dupla olyan gyors mint egy 6700XT akkor ott valami baj van. Nem feltétlenül a VGA-val.
Az R5-3600 egyébként elég gyors ahhoz multis játékhoz?[ Szerkesztve ]
-
Nemfértkiaze
kezdő
Az ár/teljesítmény viszony számít. Jelenleg nem reális az árazás, talán akciózásba kezdett az nv? Ki tudja? Majd gondolom reagál az amd, ha elkezdenek polcon maradni a kártyák. Vagy visszafogják a termelést, ami általános reakció egy ideje. Kb bármit jobban megéri gyártani nekik a felszabaduló kapacitáson.
Bár én csak az alzán láttam ilyen “olcsó” példányokat, más magyar wbbótban innó3d rtx-ek a legolcsóbbak és róluk nem az ugrik be, hogy bestby.[ Szerkesztve ]
-
Kansas
addikt
Marhaság. Játékra teljesen jók, főként ha raszteres grafikát futtatsz natív felbontáson. Jellemzően több VRAM-ot is adnak, magasabb teljesítménnyel ugyanannyiért, vagy ugyanazt a teljesítményt kicsit olcsóbban. Gondolom adnák ők még olcsóbban, ha azzal tudnának elszívni vevőket az NV-től, de nem tudnak, azért pedig nem fognak árat csökkenteni, hogy egy rövid NV-s adok-kapok után a zöld szemüvegesek vigyorogva vegyék továbbra is a Geforce-okat, csak kicsit olcsóbban. Jókat szoktam vigyorogni, mikor a HUB néha megszavaztatja a nézőit, mennyivel olcsóbban kéne adnia az AAMD-nek a kártyáit, hogy inkább azt vegyenek NV helyett, és kijönnek ilyen 20-30%-ok... annyiért az AMD nem fogja adni, ha a zöldek a fejükre állnak se. Adja rögtön már veszteséggel, vagy mi?
Valóban, ha RT-t akarsz tolni DLSS-sel, akkor nem AMD kell neked, meg CUDA-hoz sem, de azon azért ugye nem lepődsz meg, ha a konkurencia zárt szabványait nem annyira akarják támogatni.
Cserébe elhozza neked ingyen a felskálázást a GTX1070-edre, amit az NV pont leszar. OK, nem pont DLSS-szintű felskálázást, de az NV NIS-énél sokkal jobbat.
Az NV driver funkcionalitása pedig most kezdi utolérni az AMD-ét, évek múltán...Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
BiP
nagyúr
válasz Nemfértkiaze #14 üzenetére
Nem hiszen, az még arrébb van. A januári CES-re várják a bejelentést, utána ki tudja, mikor jelenik meg az 5000es széria.
Szóval még kb.fél év, és addig lesz egy iskolakezdési kampány meg egy holiday season (karácsony+újév), amikor akciózni meg sokat kaszálni szoktak. -
nuke7
veterán
aha, lehet, hogy a sorround az más...meg lehet, hogy 4090-ben jobb 2D motor van..? nekem a kijelzők így voltak:
- 2560x1080 21:9
- 1440p 16:9
- fullHD tv 16:9
a kártyákra kötve, DP és HDMi vegyesen - nyilván a tv-n nincs DP.1080, 1070, 1070ti, 3060ti mindegyik up-to-date driver és mindegyik azt csinálta, hogyha mindhárom képernyőn történt valami, de szigorúan 2d (böngésző, stream, film, stb.) akkor 3D órajelekre kapcsolt és ugye melegedett, hiába volt kicsi a terhelés viszonylag.
NVinspector-al kellett csinálnom nekik külön szabályt, hogy 4-5% terhelés alatt ne kapcsoljanak 3D órajelekre.
te biztos jobban értesz hozzá, csakhát egyáltalán nem találkoztál ezzel a felhasználással amivel ez előjön ezekszerint. Létező bug, nézz utána, nincs más megoldás rá, csak az nvidia inspector. (legalábbis másfél éve még nem volt, kerestem mindenfelé, elhiheted...)
#18 tranceplanet : nekem se szimpi, ráadásul itthon a pc-vel játszom meg fejlesztek meg videót vágok és arra sokkal jobban megérte nekem az AMD.
Persze van nvidia részvényem, és örülök a majdnem monpol helyzetüknek de nyilván a termékeiket amíg nem CUDA-zok meg RayTrace-elek nem éri meg megvennem[ Szerkesztve ]
https://youtube.com/user/nuke7
-
fejesprf
csendes tag
Látom sok itt az Nvidia fanatikus, meg is értem hiszen ők uralják a piacot, valaki itt meg is írta 75%-ban, legyen így.
Nekem viszont RX 6800 van a gépembe előtte egy fos 3070TI volt ráadásul G-sinc-nek nevezi ami FREE-sinc de-hát, fene tudja, tegye. Sokan játszanak régi Nvidia kártyákkal az AMD ő értük is tett ám pl: FSR. A 3070TI-re visszatérve sajnos az nem adott folyamatos képet, akadozott, dadogott, a hogwarts legacy alatt 1080p-n ugyanez volt több játék alatt is ahol igenis a V-ram mennyisége számít, ráadásul az drágább is volt jóval!
Fogyasztást tekintve is a 3070TI 310w fölött is képes volt kajálni persze az átlag 270w kőrűl volt a 6800 227w maxon de általában 190w.
Persze van amit én is utálok az AMD-ben, Mindig változtatja a drivere felületét mintha azzal jobbá válna, pedig csak idegesítővé válik tőle.
Aki azt mondja hogy csak Nvidia kártyával lehet játszani az, tuti nem is próbálta egyik korszerű AMD-s kártyát se ki!
Tudom mindjárt jön a vga piac 75%-a és úgy is legyőz.[ Szerkesztve ]
fejesprf
-
nuke7
veterán
nálad a hiba szerintem szerintem valahol máshol lesz, nem a GPU a ludas
Fortnite fullHD:
"RX 6700XT with Ryzen 5 5600X average 267 fps, 1% lows 131 fps
RTX 4060 with i5 12400F average 317 fps, 1% lows 141 fps
RTX 3060 with i5 12400F average 267 fps, 1% lows 51 fps
RTX 3070 with i5 12400F average 282 fps, 1% lows 131 fps"https://youtube.com/user/nuke7
-
anulu
félisten
surroundnál alap, hogy 2-3-4 ugyanolyan monitort raksz rá, mert a képfrissítést is sync-eli. amikor több monitorom volt, mindig surroundban ment, szóval csak arról van tapasztalatom.
mivel nálad nem csak a felbontás, de nagyon jó eséllyel a frissítés is különböző volt, igazság szerint nem is csodálom, hogy hülyét kapott a GPU
"Jelenleg a cloud nem más mint a sales által elhazudott és eladott utópia, egy ígéret, csalánba csomagolt mézesmadzag, amit az üzemeltetés f@$zával vernek" | Feel the power! Intel Core i7 | iPhone 14Pro 256GB | iPad Pro 2017 64GB
-
Kansas
addikt
Ha ennyire fontos neked a Fortnite, akkor cserélj kártyát olyanra aminek garantáltan semmi baja vele, nem kell ragaszkodni a Radeonhoz, főleg ha az a meggyőződésed, hogy nem jók játszani...
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
nuke7
veterán
oké, de a 6800-nak meg se kottyan (se a driverének )
(amúgy mindegyik 60hz - asszem. A sharp tv-ben nem vagyok biztos )#33 martonx : hát figyu, egy játék nálad áll szemben kb. minden benchmark-al, meg az összes többi játékkal, szóval ahogy érzed, ha szerinted ez ennyit nyom a latban, akkor oké, cserélj kártyát - DE! ne általánosíts, mert az viszont nagyon nem igaz nekem pont az nvidia-val volt rossz tapasztalatom, de nyilván CUDA meg RayTracing az jó vele, ami nekem pont nem volt fontos 🤷♂️
[ Szerkesztve ]
https://youtube.com/user/nuke7
-
BiP
nagyúr
válasz Busterftw #37 üzenetére
Ez a TPU (TechpowerUp) oldal relative performance chartja. Összesítenek egy rakat játékot, és aszerint van a lista %-os arányban feltüntetve. Én szeretem, összehasonlításhoz a legegyszerűbb.
Megj: nincs benne minden kártya. Vagyis benne van, csak nem egyszerre.
Minden kártya esetén picit más a lista. -
hokuszpk
nagyúr
válasz Busterftw #37 üzenetére
ez nem "hanyeves teszt" ; hanem a techpowerup gpu database altal felallitott teljesitmenyize.
// azert mondom, hogy "ize", mert minden kartya specnel van, es az a 100%, aminek az adatlapjan vagy. 7800XT screenshot mellekelve //
en mar parszor nekifutottam, hogy az eppen errejaro kartyakkal fogast talaljak rajta, de nagyjabol sose sikerult.Első AMD-m - a 65-ös - a seregben volt...
-
joysefke
veterán
Nem játszottam Fortinite-vel, de ez egy külsőpályás online kompetitiv shooter tehát jó eséllyel CPU igényes. A RyZEN 3600 manapság már nem az a proci ami ilyesmit kiszolgál.
FORTNITE CHAPTER 5 RTX 3060 - PERFORMANCE MODE 1080p - RYZEN 3600 (youtube.com)
Ez a videó elvileg RTX 3060 + RyZEN 3600-zal készült. Ha nem fake, akkor az "1%" és "min" FPS értékek jól mutatják, hogy kevés a proci vagy legalábbis a beállításokon kéne változtatni. (FPS limit esetleg vagy valami magasabb felbontás?)
Ha lehetőséged van érdemes lenne mondjuk egyy 5600X-szel megpróbálni, hogy jelentősen javul-e a helyzet.[ Szerkesztve ]
-
Predatorr
őstag
A hit nagy dolog! Kár, hogy matematikailag és statisztikailag sem alátámasztható. De gyorsan mondj ugyanannyiért valami sokkal jobb AMD-t a 4080-amnál! Persze, sokkal jobb az AMD, ha nem foglalkozunk a fogyasztásával, rt, cuda és egyéb képességeivel, driveres gondjaival, de akkor támogasd inkább az Intel VGA-kat.[ Szerkesztve ]
"Amely probléma nem megoldható, azt meg kell szüntetni."
-
-
martonx
veterán
válasz Predatorr #43 üzenetére
Plusz találunk olyan játékot, ami a mi konfigunkon véletlenül jól is fut... :D akkor tényleg jó.
Aztán amikor egy fisfos noname Fortnite full HD mediumban laggol, vagy a sehol se jegyzett Assassin's Creed el se akar indulni, akkor kognitív disszonancia ide-vagy-oda illik elgondolkozni, hogy megérte-e a pénzt.Én kérek elnézést!
-
Predatorr
őstag
Volt pár ATi kártyám, azok még jók voltak. Aztán AMD-k (meg pár nV), a 7870XT-nél meguntam az olcsóság árát. Kiadás után fél évvel jön az első használható meghajtó, 2 év múlva meg durván indul az avultatás, de amúgy sem indul jó pár játék,nagy felbontásban meg az addigi szerény erő is eltűnik. Áttértem nV-ra, és megint minden futott, éveken át. Vártam az új XTX-t, és meggyőzött: az első teszteket látva rendeltem is a 4080-at. Akkor még jó áron el lehetett passzolni a 2080-at, szóval nagyon drága sem volt, és úgyis minden VGA vásárlás után elkezdek félretenni a következő 3 évre, mert a hossszú játékélményért megéri a befektetés havi ktg. alapján is.
[ Szerkesztve ]
"Amely probléma nem megoldható, azt meg kell szüntetni."
-
martonx
veterán
válasz Predatorr #48 üzenetére
Ezt írtam én is, RX460, RX570, sőt jut eszembe RX580 is volt, csak akkoriban tört ki az új bányász láz és két hónappal később kétszer annyiért adtam el, amennyiért vettem kiváló kártyák voltak.
Aztán jött pár év NV 1660 Super, 1070 Ti, igaziból minden oké volt, de a szívem visszahúzott a Radeonokhoz. Aztán kb. másfél éve újra visszatértem AMD-hez RX 6700 XT papíron olyan jó volt, olcsó is volt (3xxx-ekhez képest), de valami időközben a Radeon vonalon borzasztóan elszaródott.
Iszonyú sokat tud a Radeon driver, vezérlőpult, ehhez képest NV-é egy faék. Cserébe az NV-é továbbra is működik, a Radeon-é meg csak elméletben működik amennyi fórumot olvasptam az elmúlt másfél évben, meg amennyi biost állítgattam alaplapot cseréltem, drivereket próbálgattam RX 6xxx-től kezdve külön szakirodalma van már lassan az interneten a BIOS, driver stb. trükköknek, hogy bírjuk normális működésre a fos RX kártyánkat.
Miközben néha odaülök a közben már félre is rakott ryzen 5 1600 + gtx 1660 S géphez, és röhögve fut rajta a Fortnite.Én kérek elnézést!
-
traz75
tag
6700XT mint hősugárzó? Egy Sapphire Nitro RX 6700 XT-m volt, kb minden idők egyik legjobb hűtéssel rendelkező kártyájának nevezném...
Mondom ezt semmilyen fanként, HD 3670, HD 4650, HD 4850, HD 5870, HD 6600, HD 6850, HD 7950, R7 270, R7 270X, R9 280, R9 280X, R7 370, R7 370X, R9 380X, RX 470, RX 480, RX 560, RX 570, RX 580, RX 5700, RX 6700XT, majd RX 6800 (illetve jelenleg Ryzen 5700G ) tulajként. A HD előtti meg az Nvidia vonalat most inkább nem sorolnám.
Update, többször szerkesztettem mert a 2xx ill. 3xx vonalnak elfelejtettem a hülye Rx elnevezéseit.[ Szerkesztve ]
Szart nem veszek, nem adok el. :) ui : minőségi trágya eladó :D
Új hozzászólás Aktív témák
- Magga: PLEX: multimédia az egész lakásban
- HDD probléma (nem adatmentés)
- Vezeték nélküli fülhallgatók
- Mibe tegyem a megtakarításaimat?
- PlayStation 5
- Nvidia GPU-k jövője - amit tudni vélünk
- Azonnali alaplapos kérdések órája
- Építő/felújító topik
- DIGI kábel TV
- World of Tanks - MMO
- További aktív témák...
- ASUS RTX 4070 SUPER 12GB GDDR6X DUAL EVO OC - Új, Bontatlan, 3 év garancia - Eladó!
- Gamer gép - ASUS B660M, INTEL I7 12700, 32GB DDR4, RTX 3070 8GB, 2TB M.2 SSD, 1000W Gold
- 512GB 2230 M.2 PCI-E NVME SSD BAZÁR - Samsung, Kingston, SK Hynix, Kioxia - STEAM DECK
- Apple Watch Series 7 Titanium 45mm /Watch Edition/ Wifi/ Cellular
- Alig használt számítógép konfigurációban eladó
Állásajánlatok
Cég: Ozeki Kft
Város: Debrecen
Cég: Ozeki Kft
Város: Debrecen