Keresés

Új hozzászólás Aktív témák

  • cousin333

    addikt

    válasz alec.cs #2140 üzenetére

    Őszintén szólva 1000 sornyi 700 karakteres szöveg kezelése nem hiszem, hogy túl időigényes lenne, hacsak nem valami kifejezetten ostoba módon van megoldva. Egy Jupyter Notebook-al és a %%timeit "varázslattal" nagyon gyorsan és egyszerűen ellenőrizhető a szükséges idő és összevethető más megoldásokkal.

    Az a megoldás nekem szimpatikusabb, különösen, ha az URL fájl nem (gyakran) változik. Ha osztályokkal csinálod, akkor írnék egy letöltő/beolvasó metódust, amit mindjárt a példányosítás során meghívnék. Esetleg osztály metódusként (classmethod) megírva alternatív konstruktorként használnám, attól függően, hogy a fájl mennyire játszik központi szerepet az osztályban.

    Ettől függetlenül a b módszer is működhet, amennyiben a hálózati kielégítő sebességű, és a használt műveletek nem okoznak extrém mértékű terhelést (mondjuk nem használnád a fájlt másodpercenként 100-szor...)

    [ Szerkesztve ]

    "We spared no expense"

  • Siriusb

    veterán

    válasz alec.cs #2140 üzenetére

    Én csak a pálya széléről kiabálnék be:
    Amennyiben intenzív a felhasználás módja vagy nem megbízható az internet kapcsolat, és nem lerobbant klienseken dolgoznak a felhasználók, akkor jobb lehet, ha lokálisan történik a feldolgozás.
    Amennyiben a "szerver" tényleg képes megfelelően kiszolgálni ezt a feladatot is, akkor kb. mindegy, hol kérdezed le.

    Azonban kicsit előregondolkozva, és a tapasztalatokból kiindulva az emberek mindig többet akarnak, tehát elképzelhető, hogy ez a kis "játszadozás" gyorsan kinőné magát, s akkor már mindenképpen egy adatbázis alapú megközelítés lenne szükséges.
    A jelenlegi feladat azt mondanám még "komolytalan" szint, teljesen mindegy, mit és hogyan oldasz meg, nincs egetverő különbség, bármilyen módszert is használsz.

Új hozzászólás Aktív témák