Enrico
Üyeliği Durdurulmuş
Banlı Kullanıcı
-
Üyelik
11.10.2015
-
Yaş/Cinsiyet
27 / E
-
Meslek
Hosting Sağlayıcı
-
Konum
İstanbul Avrupa
-
Ad Soyad
İ** B**
-
Mesajlar
27
-
Beğeniler
3 / 4
-
Ticaret
9, (%89)
Arkadaşlar merhabalar html kopyalama programlarını nasıl engelleyebilirim tamamını bilginiz var mı acaba?
fruzgar
ProPvPServerlar
Kimlik Onayı
-
Üyelik
06.02.2015
-
Yaş/Cinsiyet
28 / E
-
Meslek
SD
-
Konum
Ordu
-
Ad Soyad
F** R**
-
Mesajlar
792
-
Beğeniler
258 / 257
-
Ticaret
11, (%100)
Robots.txt aracılığı ile engelleyebilirsin.
Örneğin:
User-agent: HTTrack
Disallow: /
User-agent: WebZip
Disallow: /
User-agent: CopyRightCheck
Disallow: /
User-agent: SiteSnagger
Disallow: /
User-agent: ProWebWalker
Disallow: /
Aklıma gelenler bunlar. Dahası varsa aynı metodla engelleyebilirsin
1 kişi bu mesajı beğendi.
mts
WM Aracı
Kullanıcı
-
Üyelik
18.10.2013
-
Yaş/Cinsiyet
37 / E
-
Meslek
Uykucu
-
Konum
Diğer
-
Ad Soyad
S** U**
-
Mesajlar
473
-
Beğeniler
54 / 125
-
Ticaret
22, (%100)
Bu yazdığınız yalnızca siteye giren arama motoru botlarını engelliyor diye düşünüyorum, zira robots.txt yalnızca bunlar için. Fakat httrack tarzı yazılımlar web sitesi içeriğini kopyalıyor yani gidip robots.txt dosyasına bakmadan, içeriği alıyor. (Bu benim bildiğim, yanlış biliyor olamazmıyım, olabilirim tabi ki de) Fakat, eğer apache kullanıyorsanız .htacces içerisinden, nginx kullanıyorsanız .conf içerisinden, Header'ında arkadaşın User-agent'larda örnek verdiği isimleri engellerseniz, taramaya, siteyi kopyalamaya başladıklarında boş sayfa ile karşılaşırlar.
Not: Yukarıdada belirttiğim gibi yazılımların içerisinde robots.txt sorgusu olup olmadığını bilmiyorum, olmayacağı kanaatindeyim, o yüzden daha kesin olan bir yöntemden bahsettim, fruzgar'ın bahsettiği şekildede olabilmesi mümkün. Saygılar, sevgiler.