მოგესალმებით ამხანაგებო დღევანდელი სტატია შეეხება ბაგ ჰანთინგს (BUG HUNTING)
ბაგ ჰანთინგისთვის მე გამოვიყენებ SkipFish-ს რომელიც გამოსაყენებლად არის ძალიან მარტივი პრაქტიკული და მრავალფუნქციური (მინდა აღვნიშნო რომ skipfish-ის მეშვეობით თქვენ შეძლებთ ვებ აპლიკაციის დასკანერებას და ბაგ რეპორტის სასურველ ფორმატში გამოტანას)
skipfish-ის დასაინსტალირებლად დაგვჭირდება Ubuntu 18.04
მოკლედ პირველ რიგში ვაინსტალირებთ skipfish-ს
დაინსტალირების შემდეგ შევამოწმოთ ფუნქციონალი
ზემოთ აღნიშნული კომანდის შემდეგ ვნახავთ შემდეგს
ახლაკი გადავიდეთ უშვალოდ საიტის გატესტვაზე
სატესტოდ მე ვიყენებ acunetix-ის test.vulnweb-ს საიტის ბმული:
ვწერთ შემდეგ კომანდს (ან ვაწყობთ კომანდს როგორც ჩვენ გვინდა ფუნქციონალის მიხედვით)
კომანდის გაშვების შემდეგ გამოვა ფუნქციონალი შემდეგნაირად
ამდროს დავაჭერთ ნებისმიერ ღილაკს და გადავალთ საინფორმაციო გვერდზე რომელიც გამოიყურება ასე
როგორც ვხედავთ რეპორტი შენახულია შემდეგ დირექტორიაში
რეპორტის სანახავად შეგვიძლია გავუშვათ შემდეგი კომანდი
რის შემდეგაც რეპორტი გაიხსნება ფაიერფოქსში
ბაგ ჰანთინგისთვის მე გამოვიყენებ SkipFish-ს რომელიც გამოსაყენებლად არის ძალიან მარტივი პრაქტიკული და მრავალფუნქციური (მინდა აღვნიშნო რომ skipfish-ის მეშვეობით თქვენ შეძლებთ ვებ აპლიკაციის დასკანერებას და ბაგ რეპორტის სასურველ ფორმატში გამოტანას)
skipfish-ის დასაინსტალირებლად დაგვჭირდება Ubuntu 18.04
მოკლედ პირველ რიგში ვაინსტალირებთ skipfish-ს
Code:
sudo apt-get install skipfish
დაინსტალირების შემდეგ შევამოწმოთ ფუნქციონალი
Code:
skipfish –h
ზემოთ აღნიშნული კომანდის შემდეგ ვნახავთ შემდეგს
Code:
Authentication and access options:
-A user:pass - use specified HTTP authentication credentials
-F host=IP - pretend that 'host' resolves to 'IP'
-C name=val - append a custom cookie to all requests
-H name=val - append a custom HTTP header to all requests
-b (i|f|p) - use headers consistent with MSIE / Firefox / iPhone
-N - do not accept any new cookies
--auth-form url - form authentication URL
--auth-user user - form authentication user
--auth-pass pass - form authentication password
--auth-verify-url - URL for in-session detection
Crawl scope options:
-d max_depth - maximum crawl tree depth (16)
-c max_child - maximum children to index per node (512)
-x max_desc - maximum descendants to index per branch (8192)
-r r_limit - max total number of requests to send (100000000)
-p crawl% - node and link crawl probability (100%)
-q hex - repeat probabilistic scan with given seed
-I string - only follow URLs matching 'string'
-X string - exclude URLs matching 'string'
-K string - do not fuzz parameters named 'string'
-D domain - crawl cross-site links to another domain
-B domain - trust, but do not crawl, another domain
-Z - do not descend into 5xx locations
-O - do not submit any forms
-P - do not parse HTML, etc, to find new links
Reporting options:
-o dir - write output to specified directory (required)
-M - log warnings about mixed content / non-SSL passwords
-E - log all HTTP/1.0 / HTTP/1.1 caching intent mismatches
-U - log all external URLs and e-mails seen
-Q - completely suppress duplicate nodes in reports
-u - be quiet, disable realtime progress stats
-v - enable runtime logging (to stderr)
Dictionary management options:
-W wordlist - use a specified read-write wordlist (required)
-S wordlist - load a supplemental read-only wordlist
-L - do not auto-learn new keywords for the site
-Y - do not fuzz extensions in directory brute-force
-R age - purge words hit more than 'age' scans ago
-T name=val - add new form auto-fill rule
-G max_guess - maximum number of keyword guesses to keep (256)
-z sigfile - load signatures from this file
Performance settings:
-g max_conn - max simultaneous TCP connections, global (40)
-m host_conn - max simultaneous connections, per target IP (10)
-f max_fail - max number of consecutive HTTP errors (100)
-t req_tmout - total request response timeout (20 s)
-w rw_tmout - individual network I/O timeout (10 s)
-i idle_tmout - timeout on idle HTTP connections (10 s)
-s s_limit - response size limit (400000 B)
-e - do not keep binary responses for reporting
Other settings:
-l max_req - max requests per second (0.000000)
-k duration - stop scanning after the given duration h:m:s
--config file - load the specified configuration file
ახლაკი გადავიდეთ უშვალოდ საიტის გატესტვაზე
სატესტოდ მე ვიყენებ acunetix-ის test.vulnweb-ს საიტის ბმული:
Code:
http://testphp.vulnweb.com
ვწერთ შემდეგ კომანდს (ან ვაწყობთ კომანდს როგორც ჩვენ გვინდა ფუნქციონალის მიხედვით)
Code:
skipfish -o test http://testphp.vulnweb.com
კომანდის გაშვების შემდეგ გამოვა ფუნქციონალი შემდეგნაირად
Code:
Welcome to skipfish. Here are some useful tips:
1) To abort the scan at any time, press Ctrl-C. A partial report will be written
to the specified location. To view a list of currently scanned URLs, you can
press space at any time during the scan.
2) Watch the number requests per second shown on the main screen. If this figure
drops below 100-200, the scan will likely take a very long time.
3) The scanner does not auto-limit the scope of the scan; on complex sites, you
may need to specify locations to exclude, or limit brute-force steps.
4) There are several new releases of the scanner every month. If you run into
trouble, check for a newer version first, let the author know next.
More info: http://code.google.com/p/skipfish/wiki/KnownIssues
Press any key to continue (or wait 60 seconds)...
ამდროს დავაჭერთ ნებისმიერ ღილაკს და გადავალთ საინფორმაციო გვერდზე რომელიც გამოიყურება ასე
Code:
skipfish version 2.10b by [email protected]
- testphp.vulnweb.com -
Scan statistics:
Scan time : 0:01:10.756
HTTP requests : 1 (0.0/s), 0 kB in, 0 kB out (0.0 kB/s)
Compression : 0 kB in, 0 kB out (0.0% gain)
HTTP faults : 1 net errors, 0 proto errors, 0 retried, 0 drops
TCP handshakes : 1 total (1.0 req/conn)
TCP faults : 0 failures, 1 timeouts, 0 purged
External links : 0 skipped
Reqs pending : 0
Database statistics:
Pivots : 2 total, 2 done (100.00%)
In progress : 0 pending, 0 init, 0 attacks, 0 dict
Missing nodes : 0 spotted
Node types : 1 serv, 1 dir, 0 file, 0 pinfo, 0 unkn, 0 par, 0 val
Issues found : 0 info, 1 warn, 0 low, 0 medium, 0 high impact
Dict size : 3 words (3 new), 0 extensions, 0 candidates
Signatures : 77 total
[+] Copying static resources...
[+] Sorting and annotating crawl nodes: 2
[+] Looking for duplicate entries: 2
[+] Counting unique nodes: 2
[+] Saving pivot data for third-party tools...
[+] Writing scan description...
[+] Writing crawl tree: 2
[+] Generating summary views...
[+] Report saved to 'test/index.html' [0x01a21c60].
[+] This was a great day for science!
როგორც ვხედავთ რეპორტი შენახულია შემდეგ დირექტორიაში
Code:
[+] Report saved to 'test/index.html' [0x01a21c60].
რეპორტის სანახავად შეგვიძლია გავუშვათ შემდეგი კომანდი
Code:
firefox test/index.html
რის შემდეგაც რეპორტი გაიხსნება ფაიერფოქსში
Likes:
GoGu