-
Üyelik
04.02.2020
-
Yaş/Cinsiyet
43 / E
-
Meslek
Yazılım...
-
Konum
Diğer
-
Ad Soyad
O** B**
-
Mesajlar
597
-
Beğeniler
154 / 153
-
Ticaret
0, (%0)
Herkese kolay gelsin...
Konuyu kısaca açayım;
Web sitemde yayınladığım, binbir emekle biraraya getirdiğim verilerimin
hiçbir şekilde siteden çekilememesi, alınaması için NELER YAPMAMIZ GEREK!?
Verilerin siteden çekilme=çalınma yöntemi sadece karşı tarafın bot kullanması ile mi gerçekleşiyor?
Başka yöntemler de var mı?
* Botu engellemek için php ile yazılması gereken bir kod var mı?
* Botu engellemek için htaccess'e yazılması gereken bir kod var mı?
* Kaynak kodda gösterilmesini engellemek mümkün mü?
Ve bu botların veriyi elde edememesini sağlar mı?
KATKI SAĞLAYACAK HERKESE ŞİMDİDEN TEŞEKKÜR EDERİM...
ÖNCE "İYİ,DOĞRU,GÜZEL BİR İNSAN" OLMAK (VEFA,TEVAZZU,NAİFLİK,SAYGI,...) GEREK!
Sonra wm oluruz.
-
Üyelik
25.06.2012
-
Yaş/Cinsiyet
38 / E
-
Meslek
Engineering Director
-
Konum
İstanbul Avrupa
-
Ad Soyad
T** C**
-
Mesajlar
771
-
Beğeniler
2 / 260
-
Ticaret
0, (%0)
http request header Agent değerlerini kontrol edebilirsin.
Acemi biriyse, muhtemel kullandığı kütüphanenin fixed header değeri ile gelir :)
Örnek : Apache
Client header Agent değer Apache görürsen, doğruda 400 sayfasına yönlendir ya da IP' yi blokla.
Diğer yöntem ise aynı IP'den 3 sn (burradaki değerr sitedeki normal kullanıcı davranışı baz alınarak belirlenmeli) içinde 30-40 sayfaya geçiyorsa, google captcha olan bir sayfaya. yönlendir. Google captcha doğrulamasından sonra bir önceki kaldığı "referrer address" sayfaya yönlendirirsin.
2 kişi bu mesajı beğendi.
https://www.linkedin.com/in/turgaycan/
Kaliteli kod yazılır.. (Günlük/Saatlik ücreti ile)
-
Üyelik
04.02.2020
-
Yaş/Cinsiyet
43 / E
-
Meslek
Yazılım...
-
Konum
Diğer
-
Ad Soyad
O** B**
-
Mesajlar
597
-
Beğeniler
154 / 153
-
Ticaret
0, (%0)
YazılımMimarı adlı üyeden alıntı
http request header Agent değerlerini kontrol edebilirsin.
Acemi biriyse, muhtemel kullandığı kütüphanenin fixed header değeri ile gelir :)
Örnek : Apache
Client header Agent değer Apache görürsen, doğruda 400 sayfasına yönlendir ya da IP' yi blokla.
Diğer yöntem ise aynı IP'den 3 sn (burradaki değerr sitedeki normal kullanıcı davranışı baz alınarak belirlenmeli) içinde 30-40 sayfaya geçiyorsa, google captcha olan bir sayfaya. yönlendir. Google captcha doğrulamasından sonra bir önceki kaldığı "referrer address" sayfaya yönlendirirsin.
Üstadım çok teşekkür ederim...Gene çok faydalı önerilerde bulunmuşsunuz.
Konu ile ilgili bilgi seviyem arttıkça paylaştıklarınızı ilgili yerlere entegre etmeye çalışacağım...
ÖNCE "İYİ,DOĞRU,GÜZEL BİR İNSAN" OLMAK (VEFA,TEVAZZU,NAİFLİK,SAYGI,...) GEREK!
Sonra wm oluruz.
-
Üyelik
09.04.2015
-
Yaş/Cinsiyet
41 / E
-
Meslek
Bilgisayar Teknik Servis
-
Konum
İstanbul Avrupa
-
Ad Soyad
B** Y**
-
Mesajlar
394
-
Beğeniler
207 / 132
-
Ticaret
5, (%100)
Zorlaştırmak dışında,buna engel olmanız imkansız...
2 kişi bu mesajı beğendi.
-
Üyelik
04.02.2020
-
Yaş/Cinsiyet
43 / E
-
Meslek
Yazılım...
-
Konum
Diğer
-
Ad Soyad
O** B**
-
Mesajlar
597
-
Beğeniler
154 / 153
-
Ticaret
0, (%0)
BarisYILMAZ
Cevabınız için teşekkürler.
Can sıkıcı bir cevap olsa da...
Zorlaştırmak için yapılması gerekenlerle ilgili önerileriniz yada bildiğiniz kodlar var mı?
ÖNCE "İYİ,DOĞRU,GÜZEL BİR İNSAN" OLMAK (VEFA,TEVAZZU,NAİFLİK,SAYGI,...) GEREK!
Sonra wm oluruz.
-
Üyelik
24.11.2018
-
Yaş/Cinsiyet
35 / E
-
Meslek
Freelance Full Stack Developer
-
Konum
Ankara
-
Ad Soyad
E** Ö**
-
Mesajlar
21
-
Beğeniler
1 / 10
-
Ticaret
0, (%0)
Sitenizden veri çekilmemesi imkansız gibi bir şey. Ben de çeşitli firmalar için veri çekim işleri gerçekleştiriyorum. Açıkçası; ne kadar imkansız hale getirilse de her zaman açık bir kapı var. Yine de ben size, bu konuda edindiğim tecrübeleri aktarmak istiyorum.
1. CloudFlare tarzındaki (Akamai, FlexProtect, Sucuri vs.) platformları kullanmanızı öneririm.
2. User-Agent değerlerini kontrol edebilirsiniz. Aynı user-agent saniyede ya da dakikada birden fazla istek gönderiyorsa IP adresini bloklayabilirsiniz.
3. İkinci maddeye benzer şekilde; IP adresini kontrol edebilirsiniz. Saniyede ya da dakikada birden fazla istek gönderiyorsa IP adresini bloklayabilirsiniz.
4. Sitenizdeki verileri; sayfaya gömmek yerine Ajax ile dinamik bir şekilde çekip yazabilirsiniz.
5. Site tasarımınızda, datalarınızı belirleyici id | class (css) ile yazmamaya dikkat edin.
İlk aklıma gelenler bunlar. Aklıma geldikçe eklemeler yaparım.
http://emrecanoztas.com/
-
Üyelik
24.08.2018
-
Yaş/Cinsiyet
28 / E
-
Meslek
Maliyeci
-
Konum
Uşak
-
Ad Soyad
L** H**
-
Mesajlar
890
-
Beğeniler
109 / 319
-
Ticaret
8, (%100)
İmkansız hertürlü siteden veri çekebiliyorum. Neler neler gördüm. Chrome eklentisi ile bile çektiğim oldu. :D şöyle söyleyeyim en kötü ihtimal siteyi bilgisayara indirir(html olarak) verileri lokalde kurduğum kopya siteyle hallederdim. Engellemenin en güzel yolu js. Veriler js ile çekmen durumunda bot kullananın işibi zorlaştırabilirsiniz. Kolay gelsin iyi bayramlar.
-
Üyelik
04.02.2020
-
Yaş/Cinsiyet
43 / E
-
Meslek
Yazılım...
-
Konum
Diğer
-
Ad Soyad
O** B**
-
Mesajlar
597
-
Beğeniler
154 / 153
-
Ticaret
0, (%0)
emrecanoztas adlı üyeden alıntı
Sitenizden veri çekilmemesi imkansız gibi bir şey. Ben de çeşitli firmalar için veri çekim işleri gerçekleştiriyorum. Açıkçası; ne kadar imkansız hale getirilse de her zaman açık bir kapı var. Yine de ben size, bu konuda edindiğim tecrübeleri aktarmak istiyorum.
1. CloudFlare tarzındaki (Akamai, FlexProtect, Sucuri vs.) platformları kullanmanızı öneririm.
2. User-Agent değerlerini kontrol edebilirsiniz. Aynı user-agent saniyede ya da dakikada birden fazla istek gönderiyorsa IP adresini bloklayabilirsiniz.
3. İkinci maddeye benzer şekilde; IP adresini kontrol edebilirsiniz. Saniyede ya da dakikada birden fazla istek gönderiyorsa IP adresini bloklayabilirsiniz.
4. Sitenizdeki verileri; sayfaya gömmek yerine Ajax ile dinamik bir şekilde çekip yazabilirsiniz.
5. Site tasarımınızda, datalarınızı belirleyici id | class (css) ile yazmamaya dikkat edin.
İlk aklıma gelenler bunlar. Aklıma geldikçe eklemeler yaparım.
Vakit ayırıp bu maddeleri tek tek paylaştığınız için teşekkür ederim hocam.
Hepsini not alacağım.
NİCE HAYIRLI BAYRAMLAR...
ÖNCE "İYİ,DOĞRU,GÜZEL BİR İNSAN" OLMAK (VEFA,TEVAZZU,NAİFLİK,SAYGI,...) GEREK!
Sonra wm oluruz.
-
Üyelik
04.02.2020
-
Yaş/Cinsiyet
43 / E
-
Meslek
Yazılım...
-
Konum
Diğer
-
Ad Soyad
O** B**
-
Mesajlar
597
-
Beğeniler
154 / 153
-
Ticaret
0, (%0)
basich adlı üyeden alıntı
İmkansız hertürlü siteden veri çekebiliyorum. Neler neler gördüm. Chrome eklentisi ile bile çektiğim oldu. :D şöyle söyleyeyim en kötü ihtimal siteyi bilgisayara indirir(html olarak) verileri lokalde kurduğum kopya siteyle hallederdim. Engellemenin en güzel yolu js. Veriler js ile çekmen durumunda bot kullananın işibi zorlaştırabilirsiniz. Kolay gelsin iyi bayramlar.
Cevabınız ve katkınız çok teşekkür ederim.
NİCE HAYIRLI BAYRAMLAR DİLERİM...
ÖNCE "İYİ,DOĞRU,GÜZEL BİR İNSAN" OLMAK (VEFA,TEVAZZU,NAİFLİK,SAYGI,...) GEREK!
Sonra wm oluruz.