Buray Savas ANIL adlı üyeden alıntı

Tekrar Merhaba Mertcan, öncelikle yapman gereken ftp içerisinde bir robots.txt oluşturmak.

robots.txt içerisine

User-Agent: *
Disallow: /

Yapman yeterli bu sitedeki tüm indexleri eski indexler dahil silecektir eski linkleriniz silindikten sonra yukarıda belirtmiş olduğum / işaretini kaldırmanız yeterli.

User-Agent: * (Tüm Botlar için kullanılır)
Disallow: (Komut sadece index dışı tutulmasını istediğiniz link, url ve dosyalar için kullanılır)
"/" komutu domain adınızdan sonra başlayan url bütünlerinin genelini ve ftp içerisindeki dosyaların tamamı ve sayfalar için engellemek amaçlı kullanılır
Örnek: /bir-kedim-var.html
Ya da
Örnek:
/admim/
/css/
/js/

vb çalışmalar için.

İlk verdiğim komutu boş bir txt dosyasına yazarak ftp ye atın ve ardından txt dosyasının adını robots.txt olarak değiştirin ftp içerisinde domain.com/robots.txt şeklinde görülsün. içerisinde yazdığınız komutu okuyabilin. Dosya izinleri 644 yada 664 olabilir 444 de olabilir ancak zaman zaman 444 ü okuyamıyabiliyorlar.

Tüm indexler silinicektir.

Bu işlemin ardından her gün sitenize ping atın bu sayede botlar daha kısa sürede komut metini anlıycaktır.

Ek Olarak: Bu arada 404 hataları için bu komutu kullanabilir yada wordpress eklentilerinden 404 redirect eklentisini kurarak sorunu halledebllirsin.

htaccess dosyasını txt formatında açarak.

ErrorDocument 404 /index.php

yaparsan hatalı sayfalar ana sayfaya yönlenecektir.


Peki tüm indexler silindikten sonra kodu tamamen silsem sıkıntı çıkar mı
Bu işlemi yapınca anında mı siliniyor yoksa botların siteye gelmesini bekleyecek miyim?