- Súlyos adatvédelmi botrányba kerülhet a ChatGPT az EU-ban
- Az USA nem akarja visszafogni Kína növekedését
- Telekom otthoni szolgáltatások (TV, internet, telefon)
- Mikrotik routerek
- Mindenki AI-t akar, már 2025-re is eladták a HBM chipeket
- XPEnology
- Facebook és Messenger
- A legtöbb amerikai szerint a TikTok egy őket befolyásoló eszköz
- Crypto Trade
- Adobe Illustrator kérdések
Új hozzászólás Aktív témák
-
Robitrix
senior tag
a dolog nem ennyire egyszerű a Folding home, distributed.net, boinic stb. elosztott számítású projektek valóban fel vannak aprózva végül is több 10 ezer vagy százezer PC-re. Amelyek kis adagokban kapnak egy adott projektbe adatot, amit lokálisan dolgoznak fel majd az eredményt jellemzően pár órányi számolás után visszaküldik.
ez csak olyan projektek esetében müködik amit fel lehet darabolni sok millió, milliárd darabra. más szuperszámítógépes projektek viszont egyszere igénylik párhuzamosan több 100 ezer vagy millió procimag egyidejű működését. Ilyen mondjuk egy azonnali szimuláció. mondjuk egy szélcsatorna kísérlet modellezése. vagy mondjuk egy atombomba robbanás szimulizációja. azt nem lehet kisadagokban szétszórni 200 ezer számítógépre aztán várni, hogy majd a következő 3 hónapban előbb vagy utóbb feldolgoznak minden adatcsomagot.[ Szerkesztve ]