4 Nisan 2017 Salı

Sızma Testi 101 - Google Hacking

Açık Kaynak İstihbarat Toplama

Açık kaynak istihbarat toplama sırasında hedef ile direkt olarak bağlantı kurulmaz. Açık kaynak istihbarat toplama sırasında saldırı olarak adlandırılabilecek ya da suç teşkil edecek hiçbir aksiyonda bulunulmaz. Bu aşamada sadece internet üzerinden herkes tarafından erişilebilir bilgilere ulaşarak hedef hakkında bir fikre sahip olmak amaçlanır. Açık kaynak istihbarat kullanılarak hedef hakkında çok önemli bilgiler elde edilebilir ve bu bilgiler sızma testine nereden başlanacağına dair bir fikir verir.

Google Hacking


Milyarlarca kişinin her gün karşılaştığı Google arama çubuğu, çoğu insanın günlük hayatında kullandığından çok daha detaylı bir şekilde kullanıabiliyor. 

Bir takım Google arama filtrelerini kullanarak internet üzerindeki bazı sistemlerin ne çalıştırdığını veya üzerilerinde ne gibi açıklar olduğunu tespit edebiliriz. Bu filtrelerden bazıları:

site Filtresi


Site filtresini sadece istediğimiz site ya da siteler ile ilgili sonuçları görüntülemek için kullanabiliriz. Gördüldüğü üzere site:twitter.com yazıdığımızda sadece twitter.com’ile ilgili sonuçları görüntülüyoruz. Aynı filtreyi birden çok web sayfası için kullanabiliriz. 

Ek olarak,

Kullandığımız filtrenin başına (-) koyarak Google’a hangi sonuçları göstermemesini söyleyebiliriz. 


Görüldüğü üzere yapılan arama sonucunda twitter ile ilgili sonuçlar gösterilmiş fakat twitter.com adresine ait sonuçlar filtrelenmiştir.

inurl Filtresi

inurl filtresi adresi çubuğunda (URL) sözcük veya karakter aramamızı sağlar.


Örnekte twitter.com’un adres çubuğunda ‘berkcgoksel’ geçen sonuçları görüyoruz. 

intext Filtresi

intext filtesini sayfa içinde herhangi bir yerde bulunan sonuçları göstermek için kullanabiliriz. Google arama çubuğuna aşağıdakini yazarak bazı ftp login portallarını görüntüleyebiliriz:

intext:"Powered by net2ftp"

-site:net2ftp.com yazarak Net2FTP’ nin resmi websitesini sonuçların dışında tutmuş olduk. 

Google Hacking Database


Google Hacking Database, online sistemlere dair bilgi toplamayı amaçlayan Google filtrelerinin bir çok kullanıcı tarafından derlendiği ve saklandığı bir online veri tabanıdır. 

GHDB'de daha detaylı arama opsiyonları bulabiliriz. Burada bulacağımız "Dork"lar ile Google'a, bilinen bir zafiyeti olan belirli bir hizmeti aratabiliriz. 

https://www.exploit-db.com/google-hacking-database/

Robots.txt


Arama motorları ‘robot’lar kullanarak internet üzerindeki web sayfalarını ziyaret ederler. Kullanıcılara daha iyi bir hizmet verebilmek için ziyaret ettikleri sayfaları arama sonuçları arasında gösterirler. Fakat web sayfalarındaki hassas bilgi içeren dizinlerin arama motorları tarafından endekslenmesi bu dizinlerimn herkes tarafından görüntülenebileceği anlamına gelir. Bu nedenle bir web sayfasının bir takım dizinleri arama motorlarından gizlemesi gerekir. Bu işlem robots.txt kullanılarak yapılır. 

Örnek vermek için Google'ı kullanacağım.

www.google.com’un robots.txt dosyasının bir kısmı aşağıdadır:

Başında ‘Allow:’ yazan dizinler arama motorları tarafından endekslenebilir durumdadır. Başında ‘Disallow:’ yazan dizinler ise arama motorları tarafından endekslenemez. Fakat listeye eklenmeyen herhangi bir dizin, arama motorları tarafından endekslenecektir. 

Örneğin, Google’a aşağıdaki satırı yazar, enter’a basarsak ‘groups’ dizinini göremememiz gerekir.

site:www.google.com inurl:groups” 

Ekran görüntüsünde de görüldüğü üzere robots.txt dosyasında bulunan groups dizini Google Arama Motoru tarafından endekslenmemiştir. Gösterilen sonuçlarda web sayfasının başka dizinlerinde bulunan ‘groups’ adında alt dizinleri karşımıza çıkmış fakat ‘www.google.com/groups’ dizini sonuçlar arasında gösterilmemiştir. Hedef sisteme dair bilgi toplarken robots.txt dosyalarıni aramak önemlidir. Robots.tñt dosyaları web sayfasının herkesle paylaşmak istemediği dizinleri gizlemek için kullanıldığından robots.txt dosyasına erişmek daha fazla bilgi elde edinebileceğimiz dizinlerin isimlerini öğrenmemizi sağlar.


Yukarıdaki ekran görüntüsünde Google kendi robots.txt dosyasını endekslemiştir. Eğer robots.txt dosyasına ‘Disallow: /robots.txt’ değeri eklenseydi Google veya başka bir arama motoru robots.txt dizinini endekslemeyecekti.

Diğer Filtreler

Kullanabileceğimiz başka filtreler de mevcut.




Tabii ki bu Google için bir önem arz etmiyor. Fakat birçok kurum ve kuruluşun web sayfalarının robots.txt dosyaları o kurum veya kuruluş hakkında önemli bilgileri ifşa edebilir. Google filtreleriyle bulamadığımız her şey, robots.txt'de disallow edilmiştir. Bu nedenle sadece Google filtrelerine güvenmek yeterli olmayacaktır.
on 04 Nisan by Berk Cem Göksel |   Edit