Bug Hunting-ი დამწყებთათვის | Cyber Community | Hi-Tech World - CYBSECGROUP
Welcome to the CYBSECGROUP Forum
You have the opportunity to get acquainted with interesting projects in an interesting environment

Bug Hunting-ი დამწყებთათვის


Loading... 👽
Founder CEO
Alien 👽
Aug 17, 2021
Geneva, Switzerland
მოგესალმებით ამხანაგებო დღევანდელი სტატია შეეხება ბაგ ჰანთინგს (BUG HUNTING)

ბაგ ჰანთინგისთვის მე გამოვიყენებ SkipFish-ს რომელიც გამოსაყენებლად არის ძალიან მარტივი პრაქტიკული და მრავალფუნქციური (მინდა აღვნიშნო რომ skipfish-ის მეშვეობით თქვენ შეძლებთ ვებ აპლიკაციის დასკანერებას და ბაგ რეპორტის სასურველ ფორმატში გამოტანას)

skipfish-ის დასაინსტალირებლად დაგვჭირდება Ubuntu 18.04

მოკლედ პირველ რიგში ვაინსტალირებთ skipfish-ს

sudo apt-get install skipfish

დაინსტალირების შემდეგ შევამოწმოთ ფუნქციონალი

skipfish –h

ზემოთ აღნიშნული კომანდის შემდეგ ვნახავთ შემდეგს

Authentication and access options:

  -A user:pass      - use specified HTTP authentication credentials

  -F host=IP        - pretend that 'host' resolves to 'IP'

  -C name=val       - append a custom cookie to all requests

  -H name=val       - append a custom HTTP header to all requests

  -b (i|f|p)        - use headers consistent with MSIE / Firefox / iPhone

  -N                - do not accept any new cookies

  --auth-form url   - form authentication URL

  --auth-user user  - form authentication user

  --auth-pass pass  - form authentication password

  --auth-verify-url -  URL for in-session detection

Crawl scope options:

  -d max_depth     - maximum crawl tree depth (16)

  -c max_child     - maximum children to index per node (512)

  -x max_desc      - maximum descendants to index per branch (8192)

  -r r_limit       - max total number of requests to send (100000000)

  -p crawl%        - node and link crawl probability (100%)

  -q hex           - repeat probabilistic scan with given seed

  -I string        - only follow URLs matching 'string'

  -X string        - exclude URLs matching 'string'

  -K string        - do not fuzz parameters named 'string'

  -D domain        - crawl cross-site links to another domain

  -B domain        - trust, but do not crawl, another domain

  -Z               - do not descend into 5xx locations

  -O               - do not submit any forms

  -P               - do not parse HTML, etc, to find new links

Reporting options:

  -o dir          - write output to specified directory (required)

  -M              - log warnings about mixed content / non-SSL passwords

  -E              - log all HTTP/1.0 / HTTP/1.1 caching intent mismatches

  -U              - log all external URLs and e-mails seen

  -Q              - completely suppress duplicate nodes in reports

  -u              - be quiet, disable realtime progress stats

  -v              - enable runtime logging (to stderr)

Dictionary management options:

  -W wordlist     - use a specified read-write wordlist (required)

  -S wordlist     - load a supplemental read-only wordlist

  -L              - do not auto-learn new keywords for the site

  -Y              - do not fuzz extensions in directory brute-force

  -R age          - purge words hit more than 'age' scans ago

  -T name=val     - add new form auto-fill rule

  -G max_guess    - maximum number of keyword guesses to keep (256)

  -z sigfile      - load signatures from this file

Performance settings:

  -g max_conn     - max simultaneous TCP connections, global (40)

  -m host_conn    - max simultaneous connections, per target IP (10)

  -f max_fail     - max number of consecutive HTTP errors (100)

  -t req_tmout    - total request response timeout (20 s)

  -w rw_tmout     - individual network I/O timeout (10 s)

  -i idle_tmout   - timeout on idle HTTP connections (10 s)

  -s s_limit      - response size limit (400000 B)

  -e              - do not keep binary responses for reporting

Other settings:

  -l max_req      - max requests per second (0.000000)

  -k duration     - stop scanning after the given duration h:m:s

  --config file   - load the specified configuration file

ახლაკი გადავიდეთ უშვალოდ საიტის გატესტვაზე

სატესტოდ მე ვიყენებ acunetix-ის test.vulnweb-ს საიტის ბმული:

ვწერთ შემდეგ კომანდს (ან ვაწყობთ კომანდს როგორც ჩვენ გვინდა ფუნქციონალის მიხედვით)

skipfish -o test http://testphp.vulnweb.com

კომანდის გაშვების შემდეგ გამოვა ფუნქციონალი შემდეგნაირად

Welcome to skipfish. Here are some useful tips:

1) To abort the scan at any time, press Ctrl-C. A partial report will be written

   to the specified location. To view a list of currently scanned URLs, you can

   press space at any time during the scan.

2) Watch the number requests per second shown on the main screen. If this figure

   drops below 100-200, the scan will likely take a very long time.

3) The scanner does not auto-limit the scope of the scan; on complex sites, you

   may need to specify locations to exclude, or limit brute-force steps.

4) There are several new releases of the scanner every month. If you run into

   trouble, check for a newer version first, let the author know next.

More info: http://code.google.com/p/skipfish/wiki/KnownIssues

Press any key to continue (or wait 60 seconds)...

ამდროს დავაჭერთ ნებისმიერ ღილაკს და გადავალთ საინფორმაციო გვერდზე რომელიც გამოიყურება ასე

skipfish version 2.10b by [email protected]

  - testphp.vulnweb.com -

Scan statistics:

      Scan time : 0:01:10.756

  HTTP requests : 1 (0.0/s), 0 kB in, 0 kB out (0.0 kB/s)

    Compression : 0 kB in, 0 kB out (0.0% gain)

    HTTP faults : 1 net errors, 0 proto errors, 0 retried, 0 drops

 TCP handshakes : 1 total (1.0 req/conn)

     TCP faults : 0 failures, 1 timeouts, 0 purged

 External links : 0 skipped

   Reqs pending : 0

Database statistics:

         Pivots : 2 total, 2 done (100.00%)

    In progress : 0 pending, 0 init, 0 attacks, 0 dict

  Missing nodes : 0 spotted

     Node types : 1 serv, 1 dir, 0 file, 0 pinfo, 0 unkn, 0 par, 0 val

   Issues found : 0 info, 1 warn, 0 low, 0 medium, 0 high impact

      Dict size : 3 words (3 new), 0 extensions, 0 candidates

     Signatures : 77 total

[+] Copying static resources...

[+] Sorting and annotating crawl nodes: 2

[+] Looking for duplicate entries: 2

[+] Counting unique nodes: 2

[+] Saving pivot data for third-party tools...

[+] Writing scan description...

[+] Writing crawl tree: 2

[+] Generating summary views...

[+] Report saved to 'test/index.html' [0x01a21c60].

[+] This was a great day for science!

როგორც ვხედავთ რეპორტი შენახულია შემდეგ დირექტორიაში

 [+] Report saved to 'test/index.html' [0x01a21c60].

რეპორტის სანახავად შეგვიძლია გავუშვათ შემდეგი კომანდი

firefox  test/index.html

რის შემდეგაც რეპორტი გაიხსნება ფაიერფოქსში
Likes: GoGu