simanzoliNos a kérdés még minidg ugyanaz... Csak nekem ilyen lassú, vagy másnak is? Mindenesetre eddigi utánajárásom alapján az derült ki egyértelműen, hogy mindenkinek ilyen lassú.
A másik, amiben viszont tévedsz, az az, hogy a vas és a sávszélesség, mint komponens a szűk keresztmetszet. Egyáltalán nem az, hanem a konfiguráció, de főleg a kód, vagyis az alkalmazás maga. Láttam nem egy webszervert megfeküdni úgy, hogy a cpu felhasználás alacsony volt és a load, ram, i/o művelet, rx/tx, minden messze az egészséges határán belül volt és a szerver mégis megadta magát.
Egyrészt van egy csomó finomhangolási lehetőség a konfiguráció oldalán ulimit, rlimit, külső proxyknál maximum session szám, kapcsolat szempontjából keepalive, cache szempontjából reverse proxy háttértárak, böngésző cache, gzip transfer, deflate, és akkor ez még csak az én munkaköröm. Szerintem a legnagyobb optimalizációt mégis kód szintjén lehet elérni. Őrült adatbázis lekérések, hosszan futó függvények simán megfektetik a szervert úgy, hogy a fizikai erőforrást ki sem tudja használni a rendszer. Ha torlódnak a futó állományok, akkor emelheted a limitet akármekkorára, meg fog pusztulni.
Amúgy az én oldalamról van szó, csak már azon horribilis ideig tartott a vizsgálat, amin teszteltem, amin pedig tényleg le kellene futtatnom, az annál többszázszor nagyobb oldal... A probléma az, hogy nem csak az újonnan élesítendő esetlegesen hibás kódokat kell tesztelnem, hanem az eddigiekben élesre kikerült kódokat is meg kéne vizsgálnom.
Mindenesetre már tisztán látom, hogy magát a teljes oldalt képtelenség lesz átvizsgálni, legfeljebb valamilyen minimál tesztrendszerben tudom scannelni.