új-felhasználó > új-felhasználó amikor a robot bejárja a könyvtárstruktúrát, akkor elvileg belenézhet minden fájlba ami az útjába kerül
Ez nem így van. Először, is nem a könyvtárstruktúrát járja be, hanem a linkek struktúráját.
Bármihez hozzáfér, amit a webszerver felkínál neki, amire van link az induló lapon (vagy valahol máshol).
Pédául, van egy index.html a tárhelyeden, ez hivatkozik mindenféle fájlokra, CSS, scriptek, letölthető anyagok, stb.
Ahoz mindenhez hozzáfér a robot is, ahogy bármely látogató. A robots.txt az egy javaslat, ha akarja, figyelmebe veszi a tartalmát, ha nem akarja, akkor nem.
Ha az index.html mellett elhelyezel egy titok.txt -t, de sehol egy link rá, akkor arról a robot sem fog tudni, meg sem fogja szagolni.
Persze ettől a titok.txt még nem védett, mert elég egyetlen hivatkozás bárhol a weben, hogy https://tárhelyed/titok.txt, ha a robot rátalál, akkor lekérheti a szervertől, és az oda fogja adni neki.
Rosszándékú robot találomra is kéregethet le cuccokat a tárhelyedről, ha ráhibázik valamire véletlenül, megkapja.
Gondolom, különböző CMS-ek gyenge pontjai ismertek rossz arcok között, és így kérnek le (nem létező) lapokat is milliónyi szerverről.
És emiatt láthatok ilyesmit a logban:
78.153.140.177 - - [31/Mar/2024:00:42:08 +0100] "\x16\x03\x01\x01H\x01\x00\x01D\x03\x03Aj]\xB2IL$\xDE\xA2=\xCD\xC5i\xFE\x10\xB4\x15K\xD6wn3\xD8\x97c\xC8\xF8\x0FVm\xA2\xB2 2F\xE9'\xF1\xB6{!O\x1D\xBA<?\xF7E\xF2\x83{0LZ\xD5\x84$k\x8D\xE3m\xCD\x0B\xA1\xA7\x00b\x13\x02\x13\x03\x13\x01\xC0,\xC00\xC0+\xC0/\xCC\xA9\xCC\xA8\x00\xA3\x00\x9F\x00\xA2\x00\x9E\xCC\xAA\xC0\xAF\xC0\xAD\xC0$\xC0(\xC0" 400 150 "-" "-"
78.153.140.177 - - [31/Mar/2024:00:42:08 +0100] "GET /.env HTTP/1.1" 404 548 "-" "Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.129 Safari/537.36"
Ha véltetlenül kapott volna valamit, akkor tudná, hogy megvan, amit keres.
Szerintem tedd föl a Bajkált a tárhelyedre, de úgy, hogy hivatkozást nem helyezel el rá.
Csak te tudd, hogy mi az elérési útja, és figyeld egy darabig, hogy nyaldossák-e robotok?
Szerintem nem fogják.
Van továbbá egy kitétel, hogyan teheted biztonságossá
Securing your installation
Only the html directory is needed to be accessible by your web browser. You may choose to lock out access to any other directory using your webserver configuration.
In particular you should really make sure that the Specific directory is not accessible directly, as this could contain your sql database.
Én ezt figyelembe venném.
Nagy Gyula Tehát az első, hogy mi, milyen cél megvalósulása ellen akarunk védelmet.
Ott írja. Ne kelljen a Thunderbird frissítési bénaságaival szenvednie, valamint ne férjen hozzá boldog-boldogtalan a naptárbejegyzéseihez.
Ha föltesz egy megbízható szerverre egy Bajkált, ez teljesülni fog, bónusz, hogy nem csak a Thunderbirdben kezelgetheti a naptárját, hanem például Evolution-ből (én kedvencem! 😃 ), telefonjáról (pl. DavX + Etar -én kedvenceim).
Nagy Gyula ha másképp nem, akkor erőből mindent fel lehet törni.
Persze. Egy jól idomított fail2ban ennek hatásosan az útjába tud állni, megakadályozni nem fogja, de az idejét eltolhatja olyan 4 milliárd évnyire. Sokkal valószínűbb, hogy valamilyen programozási hibára fény derül, és azt a hibát kihasználva nyitnak hátsó ajtót.
Nagy Gyula nem értek annyira hozzá, számomra a legenda kategóriája, hogy már a processzorokba beépítetten van minden védelmet megkerülő út
Ez maradjon meg legendának. Halivúdban jó lesz valami hekkerfilm alapötletének.
Nagy Gyula ehet használhatatlanságot csinálni. Primitív módon, erőből is. Például, túlterheléses támadások.
Ez viszont energiaigényes (drága), tehát hosszú ideig nem tudják fenntartani a bénított állapotot.