Skipfish ile Web Zafiyet Tespiti

ProbbyGuy

Üye
18 Haz 2020
90
13
Diplerden
SkipFish Nedir

SkipFİsh Michal Zalewski, Niels Heinen ve Sebastian Roschke tarafından 2009 yıllında yazlılan, siteler
için otomatik zaafiyet tarama aracıdır.




Neden SkipFish

YÜKSEK PERFORMANS
İnternet üzerinde saniyede 500+ istek, LAN/MAN ağlarda 2000+ , local ağlara karşı 7000+ request daha önceden yapılmış.

Çoklu ve Tekli Çekirdek Desteği Var

Gelişmiş HTTP/1.1 yüksek menzilli response ve request iletme

İçerik Sıkıştırma

keep-alive bağlantı kuralbilme özelliği


KOLAY KULLANIM
Belirsiz işlem ve sorgu tabanlı parametre işleme şemalarının sezgisel olarak tanınması

Site içeriği analizine dayalı otomatik kelime listesi oluşturma.

Olasılıklı tarama özellikleri, rastgele karmaşık sitelerin periyodik, zamana bağlı değerlendirmelerine izin verir.
.


kali-skipfish.png


Nasıl Yüklenir
Debian işletim sistemlerinde hali hazırda geliyor farklı bir
sürümünü kullanıyorsanız
Kod:
apt-get install skipfish
kodunu terminalde çalıştıralım karşımıza gelen soruları "Y" diyerek tamamlayalım
Artık Kurduğumuza göre kullanımına geçebiliriz


27b8025d-8fd9-4b84-b336-e632bec2147e.jpg


Kullanımı

Zafiyet taraması yapmak istediğmiz site örnek olarak Google olsun

Terminalimize yazalım

Kod:
skipfish -o /root/Desktop/tht www.google.com

RSzjLZ.png


Yukarıda gördüğünüz gibi bir ekran çıktı
eğer bu ekranda beklerseniz 60 saniye sonra kendisi otomatik olarak zafiyet taramasını
başlatıyor yada herhangi bir tuşa basıp taramayı başlatabilirsin


Tarama başladıktan sonra karşınıza böyle bir ekran gelicek
burada aslında çok fazla bize gereken birşey yok sadece "Issues Found" ksımındaki bulunan
zafiyetler ve dereceler gerekiyo onun dışındakiler genel bilgi​

hhsm6q.png


Gördüğünüz gibi yukarıda 4 adet düşük derece zafiyet bulmuş
bunların hangi zafiyetler olduğunu log tuttuğumuz dosyada bakabilirsiniz
,

Parametreler


-W wordlist - wordlist yolunu belirt

-o - sonuçların kayıtedlileceği doysa konumu

-A user:pass - http isteklerinde kullanıcı biligilerini belirmek için

-C name=value - bütün http isteklerine rastgele cookie atamak

-H name=value - requestlere HTTP başlığı atamak

Crawl Değeri:

-d max_depth - Maksimum crawl değerinin derinliğini belirlemek için (16)

-c max_child - İndex başına eklenecek maksimum "children" sayısı (512)

-x max_desc - "Branch" başına indekslenecek "descendant" sayısı (8192)

-r r_limit - Toplam gönderilecek request sayısı (100000000)

-p crawl% - node ve linklerin crawl ihtimali (100)

-p hex - Verilen seed ile olasılığa dayalı tarama yapma

-I string - sadece verilen string`i takip et

-X string - Verilen string`i göster

-K string - string isimli parametreleri fuzz`lama

-D domain - cross-site linklerini diğer domainlerde crawl`la

-B domain - Siteye güven ama Crawl işlemi gerçekleştirme

-O - Hiçbir formun değerini "True" yapma

-P - Yeni link bulmak için html`leri ayrıştırma

-u - İşlem sırasında ekranda bir şey gösterme

-E - Tüm eşleşmeyen HTTP/1.0 HTTP/1.1 içeriklerini log tut

-U - Gözüken bütün URL ve e-mail`leri log tut



 
Son düzenleme:
Üst

Turkhackteam.org internet sitesi 5651 sayılı kanun’un 2. maddesinin 1. fıkrasının m) bendi ile aynı kanunun 5. maddesi kapsamında "Yer Sağlayıcı" konumundadır. İçerikler ön onay olmaksızın tamamen kullanıcılar tarafından oluşturulmaktadır. Turkhackteam.org; Yer sağlayıcı olarak, kullanıcılar tarafından oluşturulan içeriği ya da hukuka aykırı paylaşımı kontrol etmekle ya da araştırmakla yükümlü değildir. Türkhackteam saldırı timleri Türk sitelerine hiçbir zararlı faaliyette bulunmaz. Türkhackteam üyelerinin yaptığı bireysel hack faaliyetlerinden Türkhackteam sorumlu değildir. Sitelerinize Türkhackteam ismi kullanılarak hack faaliyetinde bulunulursa, site-sunucu erişim loglarından bu faaliyeti gerçekleştiren ip adresini tespit edip diğer kanıtlarla birlikte savcılığa suç duyurusunda bulununuz.