使用colloide扫描网站后台

概述

在渗透测试的时候我们通常要找一个网站的后台,但是有时候网站的后台并不是特别好找,比如我们学校的那个垃圾网站,今天用到的工具叫colloide,它是一款利用字典扫描后台的工具

使用

首先clone下来 git clone https://github.com/MichaelDim02/colloide.git

1
2
[email protected]:~/colloide# ls
LICENSE  README  colloide.py  links.txt

里面有上面四个文件当然主要的文件就是colloide.py,links.txt就是字典文件

运行一下

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
[email protected]:~/colloide# python colloide.py 
_________        .__  .__         .__    .___     
\_   ___ \  ____ |  | |  |   ____ |__| __| _/____  
/    \  \/ /  _ \|  | |  |  /  _ \|  |/ __ |/ __ \ 
\     \___(  <_> )  |_|  |_(  <_> )  / /_/ \  ___/
 \______  /\____/|____/____/\____/|__\____ |\___  >
        \/                                \/    \/ 
Colloide v 0.6
Michael C. Dimopoulos 2017
www.greekhacking.gr


    -h  --help   Display the help panel (Shown right now)
    -u --URL     The URL to the website
    -p --pages   Path to the wordlist with the page names / links
    -l --legals  License & legal disclaimer
    -s --save    Save pages on a text file (name of the file)
    -L --limit   Add limit to the pages (Integer)


Usage: python colloide.py -u [URL] -p [WORDLIST] -s [TEXT FILE] -L [NUMBER]

-u用来指定扫描地址,-p指定字典,其他的看上面 最常用的就是下面这样 python colloide.py -u www.example.com -p links.txt 其实说实在的这个脚本不是特别好 看它里面的这段代码

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
try:
				response = urlopen(req)
			except HTTPError as e:
				continue
			except URLError as e:
				continue 
			else: #prints working link
				print("[+] Link Found -> " + req_link)
				found = found + 1
				if txt:
					f = open(str(tfilename) ,'a')
					f.write(req_link + "\n")
				else:
					pass

因为如果我只要在服务器端设置一个404页面,让每一个你扫描到的页面都不会报出httperror就可以了,这样你的每一个字典中的链接都是可以找到的,所以这个脚本就没什么用了

欢迎关注我的博客 www.bboy.app Have Fun