kail系列skipfish的操作使用

    科技2022-07-16  126

    未来的我,朦胧可见;脚下的路,灯火依稀。

    ——杰

    学习逆向工程的过程是枯燥的,需要我攻克的内容有很多,kail只是其中的一部分,在接下来的过程中,希望可以和大家一起学习

    文章目录

    前言一、skipfish是什么?二、使用步骤1.开启skipfish2. 打开文件查看结果3.skipfish其他的指令 总结


    前言

    Kali Linux是基于Debian的Linux发行版, 设计用于数字取证和渗透测试 和 黑客攻防。Kali预装了许多渗透测试软件,包括nmap、Wireshark 、Burp suitpe、Metasploit等。Metasploit一套针对远程主机进行开发和执行Exploit代码的工具。


    提示:以下是本篇文章正文内容,下面案例可供参考

    一、skipfish是什么?

    Skipfish是一个积极的Web应用程序的安全性侦查工具。它准备了一个互动为目标的网站的站点地图进行一个递归爬网和基于字典的探头。然后,将得到的地图是带注释的与许多活性安全检查的输出。最终报告工具生成的是,作为一个专业的网络应用程序安全评估的基础。

    二、使用步骤

    1.开启skipfish

    找到目标的IP地址,可以通过whois来查询,下面的地址是我随意查询的,不做评论 输入:skipfish -o test 47.96.193.49 这里的 -o test 是指将扫描的结果保存在test中,后面接上我们的目标地址。

    上图,是我在两次enter后,出现的结果。将源地址,换成了百度地址,请见谅。 这里是已经扫描完成。

    2. 打开文件查看结果

    输入ls,看到刚刚的test文件进入test中,可以看到所有的文件扫描结果 打开浏览器,输入file:///root/test/index.html 这里是所有的结果。

    3.skipfish其他的指令

    Authentication and access options: 验证和访问选项:

    -A user:pass - use specified HTTP authentication credentials 使用特定的http验证 -F host=IP - pretend that ‘host’ resolves to ‘IP’ -C name=val - append a custom cookie to all requests 对所有请求添加一个自定的cookie -H name=val - append a custom HTTP header to all requests 对所有请求添加一个自定的http请求头 -b (i|f|p) - use headers consistent with MSIE / Firefox / iPhone 伪装成IE/FIREFOX/IPHONE的浏览器 -N - do not accept any new cookies 不允许新的cookies –auth-form url - form authentication URL –auth-user user - form authentication user –auth-pass pass - form authentication password –auth-verify-url - URL for in-session detection

    Crawl scope options:

    -d max_depth - maximum crawl tree depth (16)最大抓取深度 -c max_child - maximum children to index per node (512)最大抓取节点 -x max_desc - maximum descendants to index per branch (8192)每个索引分支抓取后代数 -r r_limit - max total number of requests to send (100000000)最大请求数量 -p crawl% - node and link crawl probability (100%) 节点连接抓取几率 -q hex - repeat probabilistic scan with given seed -I string - only follow URLs matching ‘string’ URL必须匹配字符串 -X string - exclude URLs matching ‘string’ URL排除字符串 -K string - do not fuzz parameters named ‘string’ -D domain - crawl cross-site links to another domain 跨域扫描 -B domain - trust, but do not crawl, another domain -Z - do not descend into 5xx locations 5xx错误时不再抓取 -O - do not submit any forms 不尝试提交表单 -P - do not parse HTML, etc, to find new links 不解析HTML查找连接

    Reporting options:

    -o dir - write output to specified directory (required) -M - log warnings about mixed content / non-SSL passwords -E - log all HTTP/1.0 / HTTP/1.1 caching intent mismatches -U - log all external URLs and e-mails seen -Q - completely suppress duplicate nodes in reports -u - be quiet, disable realtime progress stats -v - enable runtime logging (to stderr)

    Dictionary management options:

    -W wordlist - use a specified read-write wordlist (required) -S wordlist - load a supplemental read-only wordlist -L - do not auto-learn new keywords for the site -Y - do not fuzz extensions in directory brute-force -R age - purge words hit more than ‘age’ scans ago -T name=val - add new form auto-fill rule -G max_guess - maximum number of keyword guesses to keep (256)

    -z sigfile - load signatures from this file

    Performance settings:

    -g max_conn - max simultaneous TCP connections, global (40) 最大全局TCP链接 -m host_conn - max simultaneous connections, per target IP (10) 最大链接/目标IP -f max_fail - max number of consecutive HTTP errors (100) 最大http错误 -t req_tmout - total request response timeout (20 s) 请求超时时间 -w rw_tmout - individual network I/O timeout (10 s) -i idle_tmout - timeout on idle HTTP connections (10 s) -s s_limit - response size limit (400000 B) 限制大小 -e - do not keep binary responses for reporting 不报告二进制响应

    Other settings:

    -l max_req - max requests per second (0.000000) -k duration - stop scanning after the given duration hⓂ️s –config file - load the specified configuration file


    总结

    skipfish的操作使用,是kail的工具之一,也是非常实用的一项工具。现在有很多的工具,功能太多,不像这一件,功能不多,但是却做到了精益求精。 谈谈我对它的了解,它有点像爬虫工具,全局扫描web网页的风险度,通过我们不断的调优,可以大大提高精确率。但是对于初学者来说,有些难度

    Processed: 0.009, SQL: 8