SEO Teknik Audit Checklist

İnternet sitenizde yer alan hataları tespit ederek bot’ların crawl işlemlerini kolaylaştırabilir ve arama sonuçlarındaki performansınızı arttırabilirsiniz. Küçük ölçekli internet sitelerindeki sorunlar hiçbir ücret ödemeden ulaşabileceğiniz Search Console’da yer almaktadır. Fakat sayfa sayınız 10.000’in üzerinde çıktığında sınırlı sonuç veren Search Console hesabınıza ek olarak, crawl araçları ile analizleri gerçekleştirmek hem analiz sürenizi azaltacak hem de hataları derinlemesine inceleme fırsatı bulmanızı sağlayacaktır.

Aşağıda yer alan teknik audit checklist’ini takip ederek ücretli ve ücretsiz araçlarla internet sitenizdeki geliştirilebilir bölümlere ulaşabilirsiniz.

Teknik Audit’i gerçekleştirebilmeniz için ihtiyacınız olan araçların listesi:

– Search Console hesabı
– Google Analytics hesabı
– Deepcrawl
– Screaming Frog
– Copyscape
– Siteliner
– Microsoft Excel

Google İndeks’i

SEO komünitelerini takip ettiğim kadarıyla “arama sonuçlarında ne kadar fazla indeksli sayfam olursa o kadar avantajlı durumda olurum” şeklinde doğru bilinen bir yanlış bulunuyor. Yazımın en başında bu yanlışı ele almak istedim.
İçerik açısından zengin bir sayfanız bulunmuyorsa, bu sayfanın arama motorlarına kapatılması, girişin engellenmesi gerekmektedir. Bu tür sayfaların sayısı ne kadar fazla olursa, SEO performansınız da bir o kadar düşecektir.

SEO çalışmalarına başladığımız müşterilerimizde kontrolünü gerçekleştirdiğimiz işlemlerin başında, indeksli sayfa sayısı oluyor. Eğer Google indeks’inde, müşterimizin bilgisi dahilindeki sayfa sayısından fazla sayfa bulunuyorsa, tüm sayfaları gezmesi ve deep dive analizler gerçekleştirebilmek üzere botlarımızı gönderiyoruz.

İnternet sitenizin arama sonuçlarındaki görünürlüğünü arttırmak için bu yazıyı okuduğunuza göre, sitenizde yer alan sayfaların tamamına hakim olduğunuzu düşünüyorum. Kullanmış olduğunuz altyapı (CMS) veya temadan kaynaklanan parametreli sayfaları (örneğin: replytocom) ve farkına varmadan türeyen sayfaları tespit edebilmenin en basit ve kolay yolu Search Console hesabınızda yer alan Dizin Durumu (Index Status) sekmesidir.

Kategori sayfalarınızın + post sayflarınızın (ürünlerin) sayısı, buradaki rakamla eşit değilse, yolunda gitmeyen bir şeyler var demektir. Şimdi gelin buradaki hatalar neler olabilir adım adım inceleyelim.

Kırık linkler

İnternet siteniz içerisinde verilen hatalı site içi linkleri kontrol etmek amacıyla, -ki bu durum genellikle yazılımsal hatalardan kaynaklanmaktadır- ve eğer yazılım bilginiz düşük seviyedeyse, bir yönetici olarak bu panele göz atmanızda fayda var.

Diğer bir adıyla 404 sayfası olan bu sorunlu sayfa gruplarının sayısal değişimini aşağıdaki grafikte olduğu gibi görebilirsiniz. Hataların oluştuğu sayfa gruplarını detaylıca inceleyebilir ve kaynağına göz atarak hataların çözümlenmesi için IT ekibiniz ile paylaşabilirsiniz.

internet sitenizdeki kırık linkler 404 sayfaları SEO

Eğer 404 sayfalarının fazla olduğunu görüyorsanız, detaylı analizleri gerçekleştirebilmek için Deepcrawl ve Screaming Frog adlı araçlardan birini kullanmanızı tavsiye ederim. Bu iki araç da Googlebot’u simüle ederek, Googlebot’un karşılaşacağı hatalı sayfa gruplarını tespit etmenizi ve sorunun bulunduğu sayfaları görmenizi sağlar. Hataları gruplandırabilmek için bir Excel dosyası üzerinde çalışabilir ya da Deepcrawl’un RegEx özelliğini kullanabilirsiniz. Double check için ise alternatif bir yol olan Access Log dosyasını yorumlayabilirsiniz.

Access Log dosyası nedir?

Arama motorlarının karşılaştığı her türlü sorunu kayıt altında tutan bir dosyadır. Botlar ulaştıkları sayfada kırık bir link tespit ederse, bu dosyadan ulaşma şansınız olacaktır.

Yönlendirme Hataları

Google yönergeleri dahil tüm kaynakları incelediğinizde değişen URL yapıları sonrasında 301 yönlendirmesinin yapılması gerektiği belirtilir. Fakat değinilmesi gereken ve unutulan önemli noktalar bulunmaktadır. Bunlar;

– Yönlendirilen adresler, eski adreslere yakın sayfalar olmalıdır. Birçok case’de tüm sayfaların anasayfaya 301 veya 302 ile yönlendirildiği durumlarla karşılaşmaktayız.

– Yönlendirmeler uygulandıktan sonra site içerisindeki eski linkler, yeni linkler ile replace edilmelidir. Aksi halde, internet sitenizdeki her linkte yönlendirme olacağından, botlar sayfalara ulaşmakta zorlanacaktır.

Yönlendirmelerle ilgili güzel bir case!

Birbirine yakın sayfaları, tek bir sayfanın performansı arttırmak üzere bir adreste bir araya getirmenin sonucunu merak eden Dan Petrovic, gerçekleştiği experiment’in detaylarını burada paylaştı.

İnternet sitenizde yer alan yönlendirmelere ne yazık ki Search Console hesabınızdan ulaşamıyorsunuz. Bu yüzden Deepcrawl veya SearchMetrics araçlarından birini kullanmanız gerekmektedir. Rapor çıktılarında sitenizde yer alan yönlendirmelere ulaşabilirsiniz.

Yönlendirme adreslerin tamamına ulaşmak için Access Log dosyasına göz atabilirsiniz.

Server Hataları

Hosting sağlayıcınızın (server’ınız), yapılan sorgulara yanıt veremediği durumlarda 5XX hata kodu ile karşılaşırsınız. Yazılımsal olarak spesifik hatalar tanımlanmadıysa 404 gibi hataların tamamı da 5XX hatası döndürebilmektedir.

Server kaynaklı durumlardan dolayı ulaşılamayan sayfaların sayısı günlük olarak değişebileceği için Search Console hesabınızdaki Crawl > Crawl Errors > Server Error sekmesini incelemenizi öneririm.

Bu ekranda Googlebot’un 5XX sayfalarıyla karşılaştığını görüyorsanız, kontrol amacıyla sayfaların status code’ları kontrol edilmelidir.

Yine Access Log dosyasında server kaynaklı hataları tespit edebilirsiniz.

İpucu: Pingdom gibi araçlar, internet sitenizin down olduğu zaman aralıklarını size mail yoluyla bildirmektedir. Kurulumu gerçekleştirerek, sunucu uptime’ınızın kontrolünü 24 saat boyunca kontrol altında tutabilirsiniz.

Site Hızı ve Crawl Budget

Yukarıda sıraladığımız tüm maddeler arama motoru botlarının internet siteniz için ayırmış olduğu crawl bütçesini efektif bir şekilde kullanabilmek ve gereksiz yönlendirmelerin önüne geçerek site hızınızı arttırmaya yönelikti.

Arama motoru botları, sayfalarınızı crawl etme sıklıklarını ve ziyaretleri boyunca indirmiş oldukları dosyalar için harcadığı ortalama süreyi Search Console hesabınızın Crawl Stats sekmesinde paylaşmaktadır. Bu grafiği yorumladığınızda, crawl etmek için harcanan süre artarken, crawl edilen sayfa sayısının azaldığını göreceksiniz. Yeni eklenen içeriklerinizin indeks hızını arttırabilmek için bütçeyi doğru bir şekilde kullanmanız crawl efficiency açısından önem teşkil etmektedir. Aksi halde, RSS aracılığı veya farklı yöntemlerle içeriklerinizi kopyalayan internet sitelerinin sizden önce indekslenmesi ve Google’ın gözünde içerik hırsızı olarak görünmeniz kaçınılmaz olacaktır.

Açılış hızı yavaş olan sayfalarınızın tamamını tespit edebilmenizin kolay bir yolu var! Analytics hesabınızın sol bölümünde yer alan Page Speed > Site Speed Timings sekmesinde açılış hızı yavaş olan sayfaları görebilir ve URL bazında incelemeler yapabilirsiniz.

Pagespeed Skoru

İnternet sitenizi PageSpeed analizinden geçirerek geliştirilebilir bölümleri hızlı bir şekilde görebilirsiniz. Boyut olarak büyük imajlar, her sayfa açılışında statik imajların yeniden yüklenmesi, birden fazla CSS ve JS dosyası bu hızı etkileyen önemli faktörlerdendir.

Pagespeed skorunuzu ve açılış hızınızı arttırabilmenizi sağlayacak öneriler:

– İnternet sitenizde yer alan tüm görselleri sıkıştırın ve boyut olarak küçültün.
– Tüm sayfalarınızdaki statik imajları tek bir imaj dosyasında birleştirin ve CSS Sprite yöntemi ile tek bir sorguya indirilmesini sağlayın.
– Birden fazla CSS dosyanız bulunuyorsa, bir dosyada birleştirin ve minify edin.
– Cache ve CDN servislerini kullanın.

Engellenen Kaynaklar

İnternet sitesi yöneticileri bazı komutlar ile arama motorlarını yönetebilir. İstenilen sayfalar arama motoru botlarına kapatılabilir veya botların tüm sayfalara ulaşması sağlanabilir.

Bu komutların eklenebileceği sayfalardan biri de robots.txt’dir. Bu dosyaya eklenen hatalı komutlar, internet sitenizin önemli kısımlarının engellenmesine veya arama sonuçlarından kaldırılmasına neden olabilir. Son dönemde sıkça görülen hatalardan biri olan CSS ve JS dosyalarının engellenmesi, arama motoru botlarını zor durumda bırakmış olmalı ki, Google sorun yaşadığı tüm webmaster’lara aşağıda yer alan uyarıyı gönderdi.

google engellenen css ve javascript dosyalarına ulaşamıyor

Engellenen kaynakları, Search Console hesabınızın Google Dizini > Engellenen Kaynaklar sekmesinden kontrol edebilirsiniz. Eğer önemli bir kaynağın içeriğinizi etkilediğini düşünüyorsanız, ilgili sayfayı Fetch as Google servisi ile kontrol etmeyi unutmayın.

Duplicate Sayfalar

İnternet ortamında bulunan herhangi bir içeriği kopyalayıp internet sitenizde kullanmanız SEO performansınızı her zaman olumsuz etkileyecektir. Bu tür sayfaların tespitinin yapılması için farklı teknikler kullanılabilir. Eğer internet sitesinin kuruluşundan bu yana yapılan tüm geliştirmeler hakkında bilginiz varsa, kopya içeriğin bulunduğu sayfaları tahmin edebilirsiniz. Tehlikenin yüksek olduğu sayfaları Copyscape aracı ile toplu şekilde kontrol edebilirsiniz.

Site dışı duplicate sorununun ardından, site içerisinde tekrar eden sayfa gruplarını inceleyebileceğiniz bir diğer araç olan Siteliner’dan bahsetmek istiyorum. Toplamda 250 sayfaya kadar ücretsiz analiz yapan bu aracı incelemenizi öneririm. İhtiyacınızı karşıladığını düşünüyorsanız, kredi satın alarak kapsamlı analizler gerçekleştirebilirsiniz.

Bir diğer yöntem; alternatif bir araç olan Deepcrawl’u kullanarak, sayfaların yalnızca body bölümünde tekrar eden içerikleri tespit edebilirsiniz.

Canonicalized Pages

Özellikle e-ticaret sitelerinde karşımıza çıkan filtre ve parametre sayfaları, arama motorlarının tam anlamıyla baş belası. Yalnızca sıralamaların değiştiği, her ne kadar kullanıcı deneyimi açısından faydalı olsa da aranma hacmi olmayan filtrelerin oluşturduğu sayfalar e-ticaret sitesinin sahip olduğu değerin gereksiz sayfalara bölünmesine neden olur. Bu değerin önemli sayfalarda bir araya getirilmesi amacı ile Canonical etiketinin kullanılması gerekmektedir.

Search Console’da, Canonical etiketinin kullanım amacını Google ile paylaşabilmenizi sağlayan bir panel (URL Parametreleri) bulunuyor. Eğer yaptığınız işlem hakkında detaylı bilgiye sahip değilseniz, hiçbir işlem yapmamanızı, deneyimli birinden destek almanızı öneriyorum.

Noindex sayfalar

Önemli sayfalarınız tek bir satır kod yüzünden arama motorlarına engellenmiş olabilir mi? Bunu tespit edebilmenin kolay bir yolu ne yazık ki bulunmuyor. Deepcrawl veya ScreamingFrog adlı araçlar ile tüm sayfaları gezerek indekslenmesi engellenen sayfa gruplarını incelemelisiniz.

Pagination sayfaları

Genellikle e-ticaret ve blog sitelerinin kategori sayfalarında karşımıza çıkan pagination sayfaları arasındaki bağlantıyı arama motorlarına aktarmanın en kolay yolu, rel=next ve rel=prev kodlarını kullanmaktır. Bu kodların kullanımının kontrolünü yapılması için yine third party araçların kullanılması gerekmektedir.

Yukarıda yer alan tüm kontroller ve gerekli düzenlemeler tamamlandıktan sonra Basic Technical Audit’i kendiniz gerçekleştirmiş olacaksınız. Bundan sonraki süreçte uzman kişilerin desteğini alarak advanced bir audit raporu elde edebilirsiniz.

Konudan uzaklaşmamak adına bazı bölümlerde yetersiz bilgi paylaşımında bulunmuş olabilirim. Sorularınız olursa yorum kısmından iletmeniz yeterli olacaktır :)

Yazar Hakkında

Onur Soylan

2012'de bireysel olarak başladığı SEO çalışmalarına Freelancer olarak devam ediyor. WordPress aşığı, girişimci.

1 Yorum

Yorum yazmak ister misiniz?