Keresés

Hozzászólok Aktív témák

  • mickemoto

    senior tag

    válasz Geri Bátyó #28 üzenetére

    Persze, de a lényegen nem változtat.Most gondolj bele, ha egy legújabb generációs processzor valamit x idő alatt megycsinál akkor azt a kettővel ezelőtti is megcsinálja ami mondjuk 3 éves úgy 1.3x idő alatt, ami gyakorlatban csak néhány másodpercet jelent.
    Valamint ha a fejlődés lelassul akkor értelemszerűen a szoftverfejlesztőknek is ehhez kell alkalmazkodniuk.

    Az információ korában a tudatlanság az választás kérdése. A tudás hatalom! A nem tudás a hatalom vak és engedelmes kiszolgálója!

  • ddekany

    veterán

    válasz Geri Bátyó #28 üzenetére

    Egyébként nem az egyszerű optimalizálatlanság miatt lassulnak a szoftverek, vagy legalábbis amellett van egy megkerülhetetlen mélyebb okú tendencia is: egyre inkább komponensekre/rétegekre/absztrakciókra bontod őket, ahol a komponensek egyre inkább általánosítottak. Ettől a fejlesztő gyorsabban halad, meg egyáltalán tudja kezelni azt a komplexitást amivel egy nagyobb szoftver jár (a szoftverek csak nőnek, az emberi agy viszont u.a. marad, mint ami 20 éve még sokkal egyszerűbb alkalmazások fejlesztésénél is vért hugyozott). Ez neked adott pénzért többet tudó és megbízhatóbb szoftvert jelent, tehát ez a felhasználónak is érdeke. Viszont a gép szemszögéből a komplexitás nő mint állat. Ami régen pár sor volt neki, és most a programozónak még kevesebb sor, ha megnézed debuggerrel hogy mit csinál, hát elég ijesztő tud néha lenni.

    Persze az is tény, hogy ritkán van idő leállni profiler-el hegyezni a cuccot, és néha lehetne pár átszervezhető gócot találni. De mivel örülsz ha időre kész lesz valami, ami az elvárt funkciót megvalósítja, ez kétlem hogy gyakran felérne a prioritási lista tetejére.

Hozzászólok Aktív témák