跟着afl-training学习afl
安装
个人习惯问题,不大喜欢用docker
,所以自己在ubuntu18里面搭建环境。
安装依赖环境:
1
2
sudo apt-get install git build-essential curl libssl-dev sudo libtool libtool-bin libglib2.0-dev bison flex automake python3 python3-dev python3-setuptools libpixman-1-dev gcc-9-plugin-dev cgroup-tools \
clang-11 clang-tools-11 libc++1-11 libc++-11-dev libc++abi1-11 libc++abi-11-dev libclang1-11 libclang-11-dev libclang-common-11-dev libclang-cpp11 libclang-cpp11-dev liblld-11 liblld-11-dev liblldb-11 liblldb-11-dev libllvm11 libomp-11-dev libomp5-11 lld-11 lldb-11 python3-lldb-11 llvm-11 llvm-11-dev llvm-11-runtime llvm-11-tools libstdc++-10-dev
可能会报错:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
Reading package lists... Done
Building dependency tree
Reading state information... Done
E: Unable to locate package gcc-9-plugin-dev
E: Unable to locate package clang-11
E: Unable to locate package clang-tools-11
E: Unable to locate package libc++1-11
E: Couldn't find any package by regex 'libc++1-11'
E: Unable to locate package libc++-11-dev
E: Couldn't find any package by regex 'libc++-11-dev'
E: Unable to locate package libc++abi1-11
E: Couldn't find any package by regex 'libc++abi1-11'
E: Unable to locate package libc++abi-11-dev
E: Couldn't find any package by regex 'libc++abi-11-dev'
E: Unable to locate package libclang1-11
E: Unable to locate package libclang-11-dev
E: Unable to locate package libclang-common-11-dev
E: Unable to locate package libclang-cpp11
E: Unable to locate package libclang-cpp11-dev
E: Unable to locate package liblld-11
E: Unable to locate package liblld-11-dev
E: Unable to locate package liblldb-11
E: Unable to locate package liblldb-11-dev
E: Unable to locate package libllvm11
E: Unable to locate package libomp-11-dev
E: Unable to locate package libomp5-11
E: Unable to locate package lld-11
E: Unable to locate package lldb-11
E: Unable to locate package python3-lldb-11
E: Unable to locate package llvm-11
E: Unable to locate package llvm-11-dev
E: Unable to locate package llvm-11-runtime
E: Unable to locate package llvm-11-tools
Unable to locate package gcc-9-plugin-dev
是因为没有最新的gcc
源,下面是因为没有llvm11
相关的源。
E: Unable to locate package gcc-9-plugin-dev
的解决方案:
1
2
sudo add-apt-repository ppa:ubuntu-toolchain-r/test
sudo apt-get update
根据llvm官网的说明来安装llvm
的依赖:
1
bash -c "$(wget -O - https://apt.llvm.org/llvm.sh)"
然后切换clang
等编译器:
1
2
3
4
sudo update-alternatives --install /usr/bin/clang clang `which clang-11` 1
sudo update-alternatives --install /usr/bin/clang++ clang++ `which clang++-11` 1
sudo update-alternatives --install /usr/bin/llvm-config llvm-config `which llvm-config-11` 1
sudo update-alternatives --install /usr/bin/llvm-symbolizer llvm-symbolizer `which llvm-symbolizer-11` 1
依赖环境都好了,下载afl++
并编译:
1
2
3
4
5
6
$ git clone https://github.com/AFLplusplus/AFLplusplus
$ cd AFLplusplus
$ git checkout 2.68c # if you want a specific version, otherwise skip this step
$ make distrib
$ sudo make install
$ sudo /path/AFLplusplus/afl-system-config
quickstart
quickstart
通过fuzz
一个简单的demo
来体验afl
的使用过程。
编译demo
的方法是:
1
2
cd quickstart
CC=afl-clang-fast AFL_HARDEN=1 make
可以看到将编译器替换成了afl-clang-fast
并加入了AFL_HARDEN=1
的环境变量,最终make
。
查看该目录下的makefile
:
1
2
3
4
5
6
7
8
9
10
# Enable debugging and suppress pesky warnings
CFLAGS ?= -g -w
all: vulnerable
clean:
rm -f vulnerable
vulnerable: vulnerable.c
${CC} ${CFLAGS} vulnerable.c -o vulnerable
make
默认会编译all
,all
编译的是vulnerable
,所以最终会形成afl-clang-fast -g -w vulnerable.c -o vulnerable
。
vulnerable.c
代码如下所示:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
$ cat vulnerable.c
#include <string.h>
#include <stdio.h>
#include <unistd.h>
#include <stdlib.h>
#define INPUTSIZE 100
int process(char *input)
{
char *out;
char *rest;
int len;
if (strncmp(input, "u ", 2) == 0)
{ // upper case command
char *rest;
len = strtol(input + 2, &rest, 10); // how many characters of the string to upper-case
rest += 1; // skip the first char (should be a space)
out = malloc(len + strlen(input)); // could be shorter, but play it safe
if (len > (int)strlen(input))
{
printf("Specified length %d was larger than the input!\n", len);
return 1;
}
else if (out == NULL)
{
printf("Failed to allocate memory\n");
return 1;
}
for (int i = 0; i != len; i++)
{
out[i] = rest[i] - 32; // only handles ASCII
}
out[len] = 0;
strcat(out, rest + len); // append the remaining text
printf("%s", out);
free(out);
}
else if (strncmp(input, "head ", 5) == 0)
{ // head command
if (strlen(input) > 6)
{
len = strtol(input + 4, &rest, 10);
rest += 1; // skip the first char (should be a space)
rest[len] = '\0'; // truncate string at specified offset
printf("%s\n", rest);
}
else
{
fprintf(stderr, "head input was too small\n");
}
}
else if (strcmp(input, "surprise!\n") == 0)
{
// easter egg!
*(char *)1 = 2;
}
else
{
return 1;
}
return 0;
}
int main(int argc, char *argv[])
{
char *usage = "Usage: %s\n"
"Text utility - accepts commands and data on stdin and prints results to stdout.\n"
"\tInput | Output\n"
"\t------------------+-----------------------\n"
"\tu <N> <string> | Uppercased version of the first <N> bytes of <string>.\n"
"\thead <N> <string> | The first <N> bytes of <string>.\n";
char input[INPUTSIZE] = {0};
// Slurp input
if (read(STDIN_FILENO, input, INPUTSIZE) < 0)
{
fprintf(stderr, "Couldn't read stdin.\n");
}
int ret = process(input);
if (ret)
{
fprintf(stderr, usage, argv[0]);
};
return ret;
}
看起来程序获取来输入后调用process
函数进行处理,根据输入的不同进行不同的处理:
u <N> <string>
:对字符串的前n
个字节变成大写字符串;head <N> <string>
:截取字符串的前n
个字符;surprise!
:隐藏功能,直接触发崩溃。
运行afl-fuzz
对程序进行测试:
1
afl-fuzz -i inputs -o out ./vulnerable
inputs
目录是输入的种子目录,由用户提供,应该是精心准备的样本以有效提高fuzz
效率,可以看到系统提供的inputs
目录中包含触发u
和head
的样例:
1
2
3
4
5
6
7
8
$ ls inputs
head u
$ cat inputs/u
u 4 capsme
$ cat inputs/head
head 20 This string is going to be truncated at the 20th position.
很快就fuzz
出了结果:
out
有相应的产出,其中crashes
目录存储的是崩溃样本;queue
目录存储的是成果触发新路径的样本即有趣的样本。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
$ ls out
cmdline crashes fuzz_bitmap fuzzer_stats hangs plot_data queue
$ ls out/crashes
id:000000,sig:11,src:000006,time:1554,op:havoc,rep:2
id:000001,sig:11,src:000003+000006,time:5379,op:splice,rep:16
id:000002,sig:06,src:000010+000012,time:34485,op:splice,rep:32
id:000003,sig:06,src:000006+000010,time:47997,op:splice,rep:16
id:000004,sig:06,src:000007+000010,time:186126,op:splice,rep:32
id:000005,sig:06,src:000013,time:215280,op:havoc,rep:64
id:000006,sig:06,src:000008+000012,time:528074,op:splice,rep:16
README.txt
$ ls out/queue
id:000000,time:0,orig:head
id:000001,time:0,orig:u
id:000002,src:000000,time:3,op:flip1,pos:0,+cov
id:000003,src:000000,time:25,op:flip2,pos:6,+cov
id:000004,src:000001,time:293,op:flip1,pos:2,+cov
id:000005,src:000001,time:295,op:flip1,pos:2,+cov
id:000006,src:000001,time:301,op:flip2,pos:2,+cov
id:000007,src:000001,time:306,op:flip4,pos:2
最后示例也生成了一个比较低效的样本my seed
作为种子文件,再次进行fuzz
,二者比对后可以发现前者效率会高很多,所以种子的有效性还是比较关键的。
1
2
3
$ mkdir in
$ echo "my seed" > in/a
$ afl-fuzz -i in -o out ./vulnerable
通过这个小的demo
来体验afl fuzz
的过程,对afl
有了初步的了解。
harness
harness
的作用是通过demo
来体验如何针对具体的库代码来编写测试框架。
有了quickstart
的经验,先来总结下afl-fuzz
的主要组成及工作流程,如下图所示:
研究测试人员创建输入目录并提供变异的语料库(input corpus
);针对测试代码编写测试框架(write harness
),经过afl-clang-fast/afl-gcc
插桩编译后产生支持反馈模糊测试的二进制程序;afl-fuzz
从队列(queue
)中挑选种子进行变异;变异后的样本扔给测试框架(harness
)运行并监控运行结果;如果崩溃,则存储到崩溃目录中(crashes
);如果样本成功触发了新路径,则将它添加到队列(queue
)当中。
此次的实验则是通过编写针对library
库的测试代码来理解如何编写harness
。
library
库中存在两个库函数,相应的定义在library.h
中,如下所示;具体的实现在library.c
中。我们的目标是编写出一个程序框架使得可以通过afl
来对这两个库函数进行fuzz
。
1
2
3
4
5
6
#include <unistd.h>
// an 'nprintf' implementation - print the first len bytes of data
void lib_echo(char *data, ssize_t len);
// optimised multiply - returns x*y
int lib_mul(int x, int y);
两个函数的功能是:
lib_echo
:输出参数data
中的前len
个字符串;lib_mul
:输出参数x
乘以y
的值。
我们的目标是对编写一个框架实现对这两个函数的模糊测试。
为了实现目的,该框架必须有以下功能:
- 编译出来的程序必须是可执行的,即需要一个
main
函数,从而被编译成可执行的二进制程序; - 具备反馈信息的能力以使
afl
更高效的fuzz
,即编写出来的代码需要使用afl-clang-fast
或afl-clang
或afl-gcc
进行插桩编译; - 提供数据接口以供
afl
进行变异;即两个函数使用的参数数据应来自于标准输入或文件,使得afl
可以很方便的变异。
最终编写出来的代码如下所示:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
#include <unistd.h>
#include <string.h>
#include <stdio.h>
#include "library.h"
// fixed size buffer based on assumptions about the maximum size that is likely necessary to exercise all aspects of the target function
#define SIZE 100
int main(int argc, char* argv[]) {
if((argc == 2) && strcmp(argv[1], "echo") == 0) {
// make sure buffer is initialized to eliminate variable behaviour that isn't dependent on the input.
char input[SIZE] = {0};
ssize_t length;
length = read(STDIN_FILENO, input, SIZE);
lib_echo(input, length);
} else if ((argc == 2) && strcmp(argv[1], "mul") == 0) {
int a,b = 0;
read(STDIN_FILENO, &a, 4);
read(STDIN_FILENO, &b, 4);
printf("%d\n", lib_mul(a,b));
} else {
printf("Usage: %s mul|echo\n", argv[0]);
}
}
可以看到main
函数中由命令行参数决定是对lib_echo
函数进行模糊测试还是对lib_mul
进行模糊测试(满足第一个要求);接着是由标准输入读取数据作为参数来对函数进行调用(满足第二个要求);最后使用afl-clang-fast
对程序进行编译实现框架的生成(满足第二个要求)。
编译的命令是:
1
AFL_HARDEN=1 afl-clang-fast harness.c library.c -o harness
接下来对lib_echo
库函数进行模糊测试:
1
2
3
mkdir echo_in
echo aaaaaa > echo_in/seed
afl-fuzz -i echo_in -o out ./harness echo
创建echo_in
文件夹用于存储种子文件,创建内容为aaaaaa
的seed
文件作为种子文件,启动afl-fuzz
对lib_echo
进行模糊测试。
不一会就可以fuzz
出crash
,内容是:
1
2
$ cat out/default/crashes/id:000000,sig:06,src:000004,time:63255,op:havoc,rep:4
pop!)!!!!%![1m
对lib_mul
函数进行模糊测试:
1
2
3
mkdir mul_in
echo "1 3 " > mul_in/seed
afl-fuzz -i mul_in -o out ./harness mul
创建echo_mul
文件夹用于存储种子文件,创建内容为1 3
的seed
文件作为种子文件,启动afl-fuzz
对lib_mul
进行模糊测试。
当然也可以考虑不是在命令行中指定mul
或echo
参数来对特定的功能进行fuzz
,可以同时对这两部分功能都进行测试。
通过这个demo
可以理解在对特定的目标进行模糊测试时,如何基于afl
编写优化框架来对代码进行模糊测试。
challenges
challenges
是一系列的带有漏洞的真实目标,通过使用afl
来对这些目标进行模糊测试,成功挖掘出相应的漏洞以进一步掌握afl
的使用以及原理。
libxml2
根据RUNOOB XML 教程,知道xml
是指指可扩展标记语言(eXtensible Markup Language
,它被设计用来传输和存储数据。
XML 文档形成了一种树结构,它从”根部”开始,然后扩展到”枝叶”。XML 文档必须包含根元素。该元素是所有其他元素的父元素。
XML 文档中的元素形成了一棵文档树。这棵树从根部开始,并扩展到树的最底端。
所有的元素都可以有子元素:
1
2
3
4
5
<root>
<child>
<subchild>.....</subchild>
</child>
</root>
父、子以及同胞等术语用于描述元素之间的关系。父元素拥有子元素。相同层级上的子元素成为同胞(兄弟或姐妹)。
libxml2
的库是解析XML文档的函数库。它用 C 语言写成,并且能被多种语言所调用。我们的目标就是利用afl++
来对libxml2
库进行模糊测试,看是否挖掘它解析xml
文件格式时的漏洞。
根据afl-training先下载对应版本的libxml2
:
1
2
3
4
5
git clone https://github.com/GNOME/libxml2.git
cd libxml2
git submodule init
git submodule update
git checkout v2.9.2
然后编译:
1
2
CC=afl-clang-fast ./autogen.sh
AFL_USE_ASAN=1 make -j 4
环境变量的作用可以在官方手册–env_variables.txt里看,AFL_USE_ASAN
的作用是启动ASAN
特性来更好的检测崩溃。
1
2
3
- Setting AFL_USE_ASAN automatically enables ASAN, provided that your
compiler supports that. Note that fuzzing with ASAN is mildly challenging
- see notes_for_asan.txt.
然后编写harness
来对函数进行检测,libxml2
提供的接口有很多,可以通过官方手册来进一步了解。
我们的目的并不是深度挖掘该软件漏洞,而是通过对该软件漏洞的挖掘进一步掌握afl
的使用方法,因此只需要看官方给的Libxml2 set of examples就可以了,挑选了parse1.c: Parse an XML file to a tree and free it来进行修改,最终得到的harness.c
代码如下所示:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
#include "libxml/parser.h"
#include "libxml/tree.h"
int main(int argc, char **argv) {
if (argc != 2)
return -1;
xmlDocPtr doc; /* the resulting document tree */
doc = xmlReadFile(argv[1], NULL, 0);
if (doc == NULL) {
return -1;
}
xmlFreeDoc(doc);
xmlCleanupParser();
return 0;
}
可以看到最主要fuzz
的api
是xmlReadFile
、xmlFreeDoc
以及xmlCleanupParser
函数,通过命令行传入xml
文件名称,接着对应的函数对文件数据进行解析。而afl
主要是对xml
文件进行变异以实现对libxml2
的模糊测试。
编译harness
,命令如下所示。-I
指定头文件所在的路径,接上libxml2
的静态链接库以实现将所需模糊测试的函数链接到harness
中,-lm
使用math
库,-lz
使用zlib
库。
1
AFL_USE_ASAN=1 afl-clang-fast ./harness.c -I ~/work/fuzz/libxml2/include ~/work/fuzz/libxml2/.libs/libxml2.a -lz -lm -o fuzzer
创建模糊测试种子文件:
1
2
mkdir in
vim in/seed.xml
seed.xml
文件内容如下所示:
1
2
3
4
5
6
7
<?xml version="1.0" encoding="UTF-8"?>
<note>
<to>Tove</to>
<from>Jani</from>
<heading>Reminder</heading>
<body>Don't forget me this weekend!</body>
</note>
启动fuzzer
:
1
afl-fuzz -i in -o out ./fuzzer @@
此时可能会由于内存限制导致报错:
1
2
3
4
5
6
7
[-] Whoops, the target binary crashed suddenly, before receiving any input
from the fuzzer! Since it seems to be built with ASAN and you have a
restrictive memory limit configured, this is expected; please read
/usr/local/share/doc/afl/notes_for_asan.md for help.
[-] PROGRAM ABORT : Fork server crashed with signal 6
Location : afl_fsrv_start(), src/afl-forkserver.c:76
解决方案,加入-m none
取消内存的限制:
1
afl-fuzz -m none -i in -o out ./fuzzer @@
不一会就会跑出crash
,重现分析崩溃现场如下:
1
2
3
4
5
6
7
8
9
10
11
12
==21614==ERROR: AddressSanitizer: heap-buffer-overflow on address 0x621000002500 at pc 0x00000057da50 bp 0x7fffffffe070 sp 0x7fffffffe068
READ of size 1 at 0x621000002500 thread T0
#0 0x57da4f in xmlParseXMLDecl /home/f0cus7/fuzz/libxml2/parser.c:10666:2
#1 0x57eed9 in xmlParseDocument /home/f0cus7/fuzz/libxml2/parser.c:10771:2
#2 0x5bfbbf in xmlDoRead /home/f0cus7/fuzz/libxml2/parser.c:15298:5
#3 0x5bfbbf in xmlReadFile /home/f0cus7/fuzz/libxml2/parser.c:15360:13
#4 0x4c6080 in main /home/f0cus7/fuzz/afl-training/challenges/libxml2/./harness.c:20:11
#5 0x7ffff6c07b96 in __libc_start_main /build/glibc-2ORdQG/glibc-2.27/csu/../csu/libc-start.c:310
#6 0x41c369 in _start (/home/f0cus7/fuzz/afl-training/challenges/libxml2/fuzzer+0x41c369)
0x621000002500 is located 0 bytes to the right of 4096-byte region [0x621000001500,0x621000002500)
allocated by thread T0 here:
查看源码:
1
2
3
4
5
6
7
8
// parser.c:10666
MOVETO_ENDTAG(CUR_PTR);
NEXT;
}
// include/libxml/parseInternals.h: 297
#define MOVETO_ENDTAG(p) \
while ((*p) && (*(p) != '>')) (p)++
可以看到应该是由于*p
访问字符串末尾越界导致的,实质上它不算是漏洞,而是正常的行为。
将它进行patch
,将该函数添加到asan
的白名单之中
1
2
3
4
void __attribute__((no_sanitize_address)) MOVETO_ENDTAG_PATCH(xmlChar *p)
{
while ((*p) && (*(p) != '>')) (p)++;
}
编译libxml2
以及harness
,重新再跑,就没有那么容易跑出crash
了。
思考
在patch
以后,就很难跑出crash
了,思考下怎样可以更高效的进行模糊测试,主要方法包括:
- 提供更有效的
xml
样本,同时对样本进行进一步的精简; - 对更多的
libxml2
接口进行模糊测试,编写的harness
进一步复杂; - 改进
harness.c
,使其效率更高。
第一个可以通过在互联网上寻找更有效的xml
文件,如fuzzdata中的xml
数据,并使用afl-cmin
以及afl-tmin
工具来对样本进行精简。
第二个则是阅读官方手册,使得harness
覆盖更多的数据接口,进行更为复杂的操作。
第三个是改进harness.c
,根据AFL-FUZZ 启用 llvm,当启用llvm
,使用afl-clang-fast
对harness
进行编译的时候可以在代码中加入__AFL_LOOP
,使用 AFL persistent mode
减少frok
以进一步提高效率。
使用方法如下所示,加入__AFL_LOOP
后,afl
会在启动一次进程后,根据后面指定的数字(1000
)生成1000
次样本并运行1000
次后,再重新启动下一次进程运行,减少fork
的次数以提升效率。同时没有使用afl
进行模糊测试,而是单独运行程序时,循环不会起作用,达到在复现分析崩溃现场也可以使用同一个程序的效果。
1
2
3
4
while (__AFL_LOOP(1000))
{
XXXXXX
}
因此上面的harness
可以修改如下所示,编译后再次模糊测试可以看到效率提高了很多(从每秒1000
提升到了6000
次)。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
#include "libxml/parser.h"
#include "libxml/tree.h"
int main(int argc, char **argv) {
if (argc != 2)
return -1;
xmlDocPtr doc; /* the resulting document tree */
while (__AFL_LOOP(1000)) {
doc = xmlReadFile(argv[1], NULL, 0);
if (doc != NULL) {
xmlFreeDoc(doc);
}
}
xmlCleanupParser();
return 0;
}
heartbleed
heartbleed
漏洞很经典,当然这次漏洞分析不是这次的本文的主要目的,此次实验的目的是如何使用afl
挖掘出该漏洞崩溃点。
心脏滴血漏洞是CVE-2014-0160
,在OpenSSL1.0.1
版本中存在严重漏洞,该漏洞会导致内存越界,攻击者可以远程读取存OpenSSL
服务器内存中64K
的数据。影响版本:OpenSSL1.0.1
、1.0.1a
、1.0.1b
、1.0.1c
、1.0.1d
、1.0.1e
、1.0.1f
、Beta 1 of OpenSSL 1.0.2
等版本。
tls
数据传输的过程如下所示,openssl
很友好的支持了tls/ssl
传输协议。
Client Server
------ ------
(1)
ClientHello --------> |
ServerHello |
Certificate* |
ServerKeyExchange* |
CertificateRequest* |
(2) |
<-------- ServerHelloDone |
Certificate* |
ClientKeyExchange |--- HANDSHAKE
CertificateVerify* |
[ChangeCipherSpec] |
(3) |
Finished --------> |
[ChangeCipherSpec] |
(4) |
<-------- Finished |
Application Data <-------> Application Data
BIO
是openssl
在实现tls/ssl
协议流程过程中一个比较重要的概念,它是对数据的进一步封装。具体可参考的文章包括:
- Using OpenSSL with memory BIOs
- OpenSSL BIO_s_mem example
- Directly Read/Write Handshake data with Memory BIO
1
OpenSSL uses the a concept of BIOs which is an input/output abstraction allowing us to e.g. use data from a file, memory or network in a similar way.
下面来开始模糊测试相关部分的操作。
根据手册,先编译openssl 1.0.1f
:
1
2
3
4
git clone https://github.com/openssl/openssl.git
git checkout OpenSSL_1_0_1f
CC=afl-clang-fast CXX=afl-clang-fast++ ./config -d
AFL_USE_ASAN=1 make
编译完成后,下一步需要编写harness
,看handshake.cc
关键代码。可以看到它开启了一个Memory BIO
的server
,并调用BIO_write
函数往BIO
队列中写入了data
数据,但是这个data
却是没有定义的。为了完善这个harness
,最主要是定义data
。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
int main() {
static SSL_CTX *sctx = Init();
SSL *server = SSL_new(sctx);
BIO *sinbio = BIO_new(BIO_s_mem());
BIO *soutbio = BIO_new(BIO_s_mem());
SSL_set_bio(server, sinbio, soutbio);
SSL_set_accept_state(server);
/* TODO: To spoof one end of the handshake, we need to write data to sinbio
* here */
BIO_write(sinbio, data, size);
SSL_do_handshake(server);
SSL_free(server);
return 0;
}
我们可定义data
为缓冲区,并从标准输入中获取该数据以为afl
提供变异的数据,最终main
函数如下所示:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
int main() {
static SSL_CTX *sctx = Init();
SSL *server = SSL_new(sctx);
BIO *sinbio = BIO_new(BIO_s_mem());
BIO *soutbio = BIO_new(BIO_s_mem());
SSL_set_bio(server, sinbio, soutbio);
SSL_set_accept_state(server);
/* TODO: To spoof one end of the handshake, we need to write data to sinbio
* here */
char data [0x100];
size_t size = read(STDIN_FILENO, data, 0x100);
if(size == -1) {
return -1;
}
BIO_write(sinbio, data, size);
SSL_do_handshake(server);
SSL_free(server);
return 0;
}
编译harness
,命令如下所示。-ldl
指示连接器连接一个库。这个库里包含了dlopen
及dlsym
等函数即支持在运行时显示加载使用动态连接库的函数库。
1
AFL_USE_ASAN=1 afl-clang-fast++ -g handshake.cc ~/Desktop/openssl/libcrypto.a ~/Desktop/openssl/libssl.a ~/Desktop/openssl/libcrypto.a ~/Desktop/openssl/libssl.a -o handshake -I ~/Desktop/openssl/include -ldl
创建种子文件为变异提供输入:
1
2
mkdir in
echo 11111 > in/seed
最终进行fuzz
:
1
afl-fuzz -m none -i in -o out ./handshake
跑了一段时间以后,成功跑出crash
:
在看了ANSWERS.md
以及HINTS.md
以后,提示说因开启了ASAN
特性,因此最好去读读docs/notes_for_asan.txt。在读完文档后知道启用ASAN
特性进行fuzz
的时候最好是对32
位程序,因为它们消耗的内存大致在600-800m
左右;而当程序是64
位的时候,所消耗的内存会达到17.5 TB-20TB
左右,所以直接跑64
位程序可能会出错。
如果一定要跑的话,可以使用root
权限来调用asan_cgroups/limit_memory.sh
脚本运行(sudo ~/AFLplusplus/examples/asan_cgroups/limit_memory.sh -u fuzzer afl-fuzz -i in -o out -m none ./handshake
);也可以像上面一样直接传参-m none
来运行,当然这可能会出现程序耗内存过多被系统给杀掉的情况。
sendmail/1301
基础知识-parallel fuzzing
根据描述在多核的系统中运行时,为了最大化fuzz
的效率,最好启动多个afl-fuzz
或者在多系统中运行afl-fuzz
,称为parallel fuzzing
。
并行fuzz
要看的手册是docs/parallel_fuzzing.txt,在把该文档浏览一遍以后,简要记录些基础知识。
每个afl-fuzz
会独占一个cpu
内核,因此在多核(n
核)的系统中,最多会允许启动n
个afl-fuzz
实例,只启动一个实例也确实是有些浪费系统资源。
在一个系统中启动并行fuzz
的方式也比较简单,要创建一个用于输出的同步目录sync_dir
,同时在启动时对各个系统做好命名即可。
第一个实例启动命令如下所示,需要指定它为master
(-M
):
1
$ ./afl-fuzz -i testcase_dir -o sync_dir -M fuzzer01 [...other stuff...]
其余的实例也以同样的方式启动,指定它们为client
(sencondary -S
):
1
2
$ ./afl-fuzz -i testcase_dir -o sync_dir -S fuzzer02 [...other stuff...]
$ ./afl-fuzz -i testcase_dir -o sync_dir -S fuzzer03 [...other stuff...]
启动后所有的实例都会将它的状态保存到单独的目录中,如:
1
/path/to/sync_dir/fuzzer01/
每个实例会间隔一段时间后扫描同步文件夹,并将所有的interesting
样本同步到自己的样本库中。
-M
和-S
的区别是,master
实例会执行deterministic checks
;而secondary
实例则是会随机的调整(random tweaks
)。这个deterministic checks
以及random tweaks
没太明白意思,感觉是master
需要针对所有的实例做一些决策,其余的都不用。可以所有的实例都以-S
启动,特别在目标是比较复杂的情况下,多个实例以-M
的方式启动是没有必要的,有点浪费资源。
在多个系统中启动并行fuzz
比单系统稍微复杂点,最主要的区别是要编写一个脚本来在系统之间进行同步:
-
使用
ssh
证书登陆到各个系统中并将fuzz
数据(/path/to/sync_dir/<fuzzer_id>/queue/
)保存下来,样例如下所示:1 2 3
for s in {1..10}; do ssh user@host${s} "tar -czf - sync/host${s}_fuzzid*/[qf]*" >host${s}.tgz done
-
将上面保存的数据文件同步到其它的机器路径当中,样例如下所示:
1 2 3 4 5 6
for s in {1..10}; do for d in {1..10}; do test "$s" = "$d" && continue ssh user@host${d} 'tar -kxzf -' <host${s}.tgz done done
在experimental/distributed_fuzzing/
路径下有对应的示例,可以参考。
值得一提的是crash
是不会在各个实例之间进行同步的,需要用户自己主动去查看。
fuzz sendmail
sendmail
是一个SMTP
服务源码,提取出来的代码的主体功能是在7-bit MIME
和8-bit MIME
格式进行转换。
harness
如下面的main
所示,从文件中获取数据并调用mime7to8
进行转换。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
#include "my-sendmail.h"
#include <assert.h>
int main(int argc, char **argv){
HDR *header;
register ENVELOPE *e;
FILE *temp;
assert (argc == 2);
temp = fopen (argv[1], "r");
assert (temp != NULL);
header = (HDR *) malloc(sizeof(struct header));
header->h_field = (char *) malloc(sizeof(char) * 100);
header->h_field = "Content-Transfer-Encoding";
header->h_value = (char *) malloc(sizeof(char) * 100);
header->h_value = "quoted-printable";
e = (ENVELOPE *) malloc(sizeof(struct envelope));
e->e_id = (char *) malloc(sizeof(char) * 50);
e->e_id = "First Entry";
e->e_dfp = temp;
mime7to8(header, e);
fclose(temp);
return 0;
}
makefile
如下所示,最终编译出来的程序是m1-bad
。
1
2
3
4
5
6
7
8
9
CFLAGS ?= -g
all: m1-bad
clean:
rm -f *-bad *-ok
m1-bad: mime1-bad.c main.c
${CC} ${CFLAGS} -o m1-bad mime1-bad.c main.c -I .
编译命令如下:
1
CC=afl-clang-fast AFL_HARDEN=1 make
对功能进行测试:
1
2
3
4
5
6
7
8
9
10
11
$ echo hi > input
$ ./m1-bad input
buf-obuf=4294967232
obp-obuf=0
canary-obuf=4294967222
canary = GOOD
obuf = hi
canary should be GOOD
canary = GOO
创建种子文件:
1
2
3
$ mkdir in
$ echo hi > in/seed
因为我的系统cpu
是8
核的,最多可以开启8
个实例,这里我决定开启4
个实例。
1
2
3
4
afl-fuzz -i in -o out -M fuzzer01 ./m1-bad @@
afl-fuzz -i in -o out -S fuzzer02 ./m1-bad @@
afl-fuzz -i in -o out -S fuzzer03 ./m1-bad @@
afl-fuzz -i in -o out -S fuzzer04 ./m1-bad @@
对应的out
目录下也有相应的路径产生:
1
2
$ ls out
fuzzer01 fuzzer02 fuzzer03 fuzzer04
不一会就跑出了crash
。
date
date
命令是关于时间的命令,它可以用来查看、更改系统时间,它是coreutils
组件中的一个程序。
可以通过man
手册来查看相应的用法:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
DATE(1) User Commands DATE(1)
NAME
date - print or set the system date and time
SYNOPSIS
date [OPTION]... [+FORMAT]
date [-u|--utc|--universal] [MMDDhhmm[[CC]YY][.ss]]
DESCRIPTION
Display the current time in the given FORMAT, or set the system date.
Mandatory arguments to long options are mandatory for short options too.
-d, --date=STRING
display time described by STRING, not 'now'
--debug
annotate the parsed date, and warn about questionable usage to stderr
-f, --file=DATEFILE
like --date; once for each line of DATEFILE
-I[FMT], --iso-8601[=FMT]
output date/time in ISO 8601 format. FMT='date' for date only (the default), 'hours', 'minutes', 'seconds', or 'ns' for date and time to the indicated precision. Example:
2006-08-14T02:34:56-06:00
我们可以通过设置不同的TZ
环境变量来显示不同的时间:
1
2
3
4
5
6
7
8
$ date
Thu 03 Dec 2020 12:08:47 PM EST
$ TZ='Asia/Tokyo' date
Fri 04 Dec 2020 02:08:56 AM JST
$ TZ='America/Los_Angeles' date
Thu 03 Dec 2020 08:47:45 AM PST
$ TZ='Europe/London' date
Thu 03 Dec 2020 04:48:25 PM GM
此次实验的目的是通过对环境变量TZ
的模糊测试来了解在不是从标准输入以及文件进行输入的情况下(环境变量),如何使用afl
进行fuzz
。
先编译漏洞版本的date
程序:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
git clone https://github.com/coreutils/coreutils
cd coreutils
git submodule init && git submodule update
sudo apt install autopoint bison gperf autoconf texinfo # already installed in the container environment
git checkout f4570a9
./bootstrap # may finish with some errors to do with 'po' files, which can be ignored
#this old version doesn't work with modern compilers, we need to apply a patch
pushd gnulib && wget https://src.fedoraproject.org/rpms/coreutils/raw/f28/f/coreutils-8.29-gnulib-fflush.patch && patch -p1 < coreutils-8.29-gnulib-fflush.patch && popd
# configure
CC=afl-clang-fast CXX=afl-clang-fast++ ./configure
# make
AFL_USE_ASAN=1 make -j src/date # only compile the date binary - saves a lot of time
./src/date
Mon Jul 3 08:11:23 PDT 2017
在编译的过程可能会报错:
1
cc1: error: '-Wabi' won't warn about anything [-Werror=abi]
好像是因为我用的afl
版本太新了,于是我决定降到afl-training
中用的版本2.68c
:
1
2
3
4
cd ~/path/to/AFLplusplus
git checkout 2.68c
make distrib
sudo make install
目标存在的已知漏洞是CVE-2017-7476,主要是TZ
环境变量处理不当形成的漏洞,接下来思考如何让afl
可以对环境变量进行fuzz
。
因为目前afl
对从标准输入以及文件中读取的数据的fuzz
支持的比较友好,对于环境变量的fuzz
要进行一定的转换,主要途径有以下三种:
- 从源码中找到相应的获取
TZ
环境变量(getenv
)的地方,把代码修改成从标准输入获取数据; - 编写
harness
,在程序的开头设置TZ
环境变量,然后继续运行; - 编写自定义的
getenv
函数并使用LD_PRELOAD
来对函数进行hook
,实现每次调用getenv
函数时都从stdin
中获取数据。
三种方式的优劣如下:
- 第一种可行,但是需要在代码中找全对
TZ
变量引用的地方并进行修改,有点费劲; - 第二种可行,在函数的开头加入从标准输入中获取数据并设置环境变量的代码,如examples/bash_shellshock一样,简单便捷;
- 第三种可行,且这种方式对于其它类似的情况也适用,但需要编写额外的
so
,有点麻烦。
第二种方式最简单,只需要在src/date.c
的main
函数开头加入从标准输入中获取数据并设置TZ
环境变量的代码,diff
代码如下所示。
1
2
3
4
5
6
$ diff src/date.c date_back.c
361,364d360
< char env_data[0x400];
< read(0, env_data, 0x400);
< setenv("TZ", env_data, 1);
<
修改完成以后,重新编译date
程序,此时对于环境变量的模糊测试已经转换成了对标准输入中的数据的模糊测试,满足afl fuzz
的条件。
创建种子文件:
1
2
$ mkdir in
$ echo 1>in/seed #或 echo -n "Europe/London" > in/london 效率更高
因为我编译的时候开启了ASAN
特性,所以运行的时候最好用asan_cgroups/limit_memory.sh
以限制内存:
1
sudo ~/AFLplusplus/examples/asan_cgroups/limit_memory.sh -u fuzzer ~/AFLplusplus/afl-fuzz -m none -i in -o out ~/Desktop/coreutils/src/date --date "2017-03-14T15:00-UTC"
不过我比较简单粗暴,直接加进去-m none
就没管了:
1
afl-fuzz -m none -i in -o out ~/Desktop/coreutils/src/date --date "2017-03-14 15:00 UTC"
在程序后面加入--date "2017-03-14 15:00 UTC"
的原因是让date
程序的输出都一致,免得程序因为时间的不同导致输出不同从而去模糊测试一些不相干的代码,提高效率。
过了一会,也就跑出了crash
:
使用afl
在对不是从标准输入或者文件中获取数据的目标进行模糊测试的时候,如何进行合理的转换是需要好好思考的问题。
ntpq
ntpq
指令使用NTP
模式6
数据包与NTP
服务器通信,能够在允许的网络上查询的兼容的服务器。它以交互模式运行,或者通过命令行参数运行。
此次模糊测试的ntpq
版本是4.2.2
,下载链接是https://www.eecis.udel.edu/~ntp/ntp_spool/ntp4/ntp-4.2/ntp-4.2.2.tar.gz,先下载代码:
1
2
curl https://www.eecis.udel.edu/~ntp/ntp_spool/ntp4/ntp-4.2/ntp-4.2.2.tar.gz -o ntp-4.2.2.tar.gz
tar -xf ntp-4.2.2.tar.gz
模糊测试的漏洞目标是CVE-2009-0159: NTP Remote Stack Overflow,是在cookedprint
函数中出的问题。
先编译ntpq
:
1
2
CC=afl-clang-fast ./configure
AFL_HARDEN=1 make -C ntpq
接下来思考如何实现利用afl-fuzz
对网络收发包程序ntpq
的模糊测试,一个可行的方法是对目标函数cookedprint
进行针对性的fuzz
,而不是花心思去用afl
来构造ntpd
数据包。
cookedprint
函数原型如下所示,因此只需从标准输入中获取datatype
、length
、data
以及status
,并将fp
重定向给stdout
,并对函数进行调用就可以了。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
// ntpq.c: 3000
/*
* cookedprint - output variables in cooked mode
*/
static void
cookedprint(
int datatype,
int length,
char *data,
int status,
FILE *fp
)
{
最终形成的调用代码如下所示:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
#ifdef __AFL_HAVE_MANUAL_CONTROL
__AFL_INIT();
#endif
int datatype=0;
int status=0;
char data[1024*16] = {0};
int length=0;
#ifdef __AFL_HAVE_MANUAL_CONTROL
while (__AFL_LOOP(1000)) {
#endif
datatype=0;
status=0;
memset(data,0,1024*16);
read(0, &datatype, 1);
read(0, &status, 1);
length = read(0, data, 1024 * 16);
cookedprint(datatype, length, data, status, stdout);
#ifdef __AFL_HAVE_MANUAL_CONTROL
}
#endif
return 0;
将上述代码写入到ntpq
的main
函数当中,形成的patch
代码如下所示:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
$ diff ntpq/ntpq_back.c ntpq/ntpq.c
491c491,512
< return ntpqmain(argc, argv);
---
> /* return ntpqmain(argc, argv); */
> #ifdef __AFL_HAVE_MANUAL_CONTROL
> __AFL_INIT();
> #endif
> int datatype=0;
> int status=0;
> char data[1024*16] = {0};
> int length=0;
> #ifdef __AFL_HAVE_MANUAL_CONTROL
> while (__AFL_LOOP(1000)) {
> #endif
> datatype=0;
> status=0;
> memset(data,0,1024*16);
> read(0, &datatype, 1);
> read(0, &status, 1);
> length = read(0, data, 1024 * 16);
> cookedprint(datatype, length, data, status, stdout);
> #ifdef __AFL_HAVE_MANUAL_CONTROL
> }
> #endif
> return 0
重新编译,生成对应的harness
。
创建种子文件:
1
2
$ mkdir in
$ echo 1>in/seed
启动fuzz
(当然也可以使用并行fuzz
进一步提高效率,我这里没有用):
1
afl-fuzz -i in -o out ~/Desktop/ntp-4.2.2/ntpq/ntpq
不一会跑出crash
:
跑了一段时间以后,会想知道跑了这么久跑了多少的覆盖率(针对cookedprint
函数),可以使用llvm
中对gcov
的支持来查看覆盖率,具体可以去看gcov與LLVM中的實現。
简单来说gcov
是一个测试代码覆盖率的工具。与GCC
(llvm
也支持)一起使用来分析程序,以帮助创建更高效、更快的运行代码,并发现程序的未测试部分。是一个命令行方式的控制台程序,需要结合lcov
,gcovr
等前端图形工具才能实现统计数据图形化。
知道了这个概念具体来操作,先跑make distclean
清除之前的痕迹,然后编译支持gcov
的ntpq
:
1
CC=clang CFLAGS="--coverage -g -O0" ./configure && make -C ntpq
然后调用ntpq
运行out/queue
目录下所有的文件,该目录下存储的是会触发新路径的文件,运行一次即可记录所有覆盖的路径:
1
$ for F in out/queue/id* ; do ./ntp-4.2.2/ntpq/ntpq < $F > /dev/null ; done
生成gcov
报告:
1
2
cd ~/Desktop/ntp-4.2.2/ntpq
llvm-cov-11 gcov ntpq.c
生成的报告名称是ntpq.c.gcov
,打开该文件进行查看。特别关注的是cookedprint
函数,示例代码如下所示。其中前面是-
的表示是没有对应生成代码的区域;前面是数字的表示执行了的次数;前面是#####
的表示是没有执行到的代码,可以通过观察覆盖率然后调整种子提升模糊测试效率。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
3029 -: 3024:static void
3030 365: 3025:cookedprint(
3031 -: 3026: int datatype,
3032 -: 3027: int length,
3033 -: 3028: char *data,
3034 -: 3029: int status,
3035 -: 3030: FILE *fp
3036 -: 3031: )
3037 -: 3032:{
3038 -: 3033: register int varid;
3039 -: 3034: char *name;
3040 -: 3035: char *value;
3041 -: 3036: char output_raw;
3042 -: 3037: int fmt;
3043 -: 3038: struct ctl_var *varlist;
3044 -: 3039: l_fp lfp;
3045 -: 3040: long ival;
3046 -: 3041: struct sockaddr_storage hval;
3047 -: 3042: u_long uval;
3048 -: 3043: l_fp lfparr[8];
3049 -: 3044: int narr;
3050 -: 3045:
3051 365: 3046: switch (datatype) {
3052 -: 3047: case TYPE_PEER:
3053 194: 3048: varlist = peer_var;
3054 194: 3049: break;
3055 -: 3050: case TYPE_SYS:
3056 51: 3051: varlist = sys_var;
3057 51: 3052: break;
3058 -: 3053: case TYPE_CLOCK:
3059 119: 3054: varlist = clock_var;
...
3079 #####: 3074: if (!decodets(value, &lfp))
3080 #####: 3075: output_raw = '?';
3081 -: 3076: else
3082 #####: 3077: output(fp, name, prettydate(&lfp));
3083 #####: 3078: break;
字典模式 fuzz
afl
的一个局限性是它的变异是语法无效的(syntax-blind
),对于SQL
以及HTTP
这种格式较明确的处理效率不高,如很难变异生成*Set-Cookie: FOO=BAR* to *Content-Length: -1*
这样的语句。为了处理这种情况,afl
引入了字典模式以提高,基于字典语法来进行变异可较大提高性能,具体详情可以参考afl-fuzz: making up grammar with a dictionary in hand以及Finding bugs in SQLite, the easy way。
在命令行参数中加入-x [name.dict]
即指定相应的字典,对于上面的ntpq
,afl-training
也构建了ntpq.dict
字典来提升fuzz
,该字典内容如下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
"leap"
"reach"
"refid"
"reftime"
"clock"
"org"
"rec"
"xmt"
"flash"
"srcadr"
"peeradr"
"dstadr"
"filtdelay"
"filtoffset"
"filtdisp"
"filterror"
"pkt_dup"
"pkt_bogus"
"pkt_unsync"
"pkt_denied"
"pkt_auth"
"pkt_stratum"
"pkt_header"
"pkt_autokey"
"pkt_crypto"
"peer_stratum"
"peer_dist"
"peer_loop"
"peer_unreach"
启动fuzz
的命令是:
1
afl-fuzz -i in -o out -x ntpq.dict ~/Desktop/ntp-4.2.2/ntpq/ntpq
cyber-grand-challenge/CROMU_00007
cgc
比赛的一样例题,有两个洞一个比较难,一个比较容易。容易的洞比较轻松可以fuzz
出来,难的洞作者说可能fuzz
不出来。感觉对于afl
的理解没啥帮助,就没啥做的必要和价值,跳过。
sendmail/1305
persistent mode
在libxml2
的fuzz
过程中对afl
的persistent mode
进行了初步的介绍,现在来进一步对它进行介绍。
之前的样例中afl
运行一次样例就要执行一次fork
或execve
,这样会大量的消耗资源以及使得模糊测试的时间消耗在创建新的进程上。为了尽可能的使资源以及时间花在真正的fuzz
上,afl
设计实现了persistent mode
,在每次运行关联性不强的目标以及内存状态可以容易的恢复到初始状态的目标上,我们可以使用persistent mode
,调用相关的api
即可实现一次创建进程运行多次样例的目标。具体详情可以查看New in AFL: persistent mode以及Fuzzing capstone using AFL persistent mode。
在harness
中加入 while (__AFL_LOOP(1000)) {
将模糊测试的目标代码给圈起来就算开启了persistent mode
,还要提一句的是应该是要在llvm mode
中才能使用(使用afl-clang-fast
编译的时候)。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
int main(int argc, char** argv) {
while (__AFL_LOOP(1000)) {
/* Reset state. */
memset(buf, 0, 100);
/* Read input data. */
read(0, buf, 100);
/* Parse it in some vulnerable way. You'd normally call a library here. */
if (buf[0] != 'p') puts("error 1"); else
if (buf[1] != 'w') puts("error 2"); else
if (buf[2] != 'n') puts("error 3"); else
abort();
}
}
fuzz sendmail
sendmail 1305
的目标是模糊测试sendmail
中的prescan
函数,它是预处理用户提供的邮箱以验证它的合法性。
prescan-overflow-bad-start.c
的内容如下所示,根据内容示意,主要对addr
内容进行模糊测试。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
int main(){
char *addr;
int delim;
static char **delimptr;
char special_char = '\377'; /* same char as 0xff. this char will get interpreted as NOCHAR */
int i = 0;
addr = (char *) malloc(sizeof(char) * 500);
strcpy(addr, "Misha Zitser <misha@mit.edu>");
delim = '\0';
delimptr = NULL;
OperatorChars = NULL;
ConfigLevel = 5;
CurEnv = (ENVELOPE *) malloc(sizeof(struct envelope));
CurEnv->e_to = (char *) malloc(strlen(addr) * sizeof(char) + 1);
strcpy(CurEnv->e_to, addr);
parseaddr(addr, delim, delimptr);
return 0;
}
修改代码形成harness
,开启persistent mode
以及从标准输入中获取addr
:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
int main(){
char *addr;
int delim;
const int MAX_MESSAGE_SIZE = 1000;
int size;
static char **delimptr;
/* This address is valid */
/* "Misha Zitser <misha@mit.edu>" */
delim = '\0';
delimptr = NULL;
OperatorChars = NULL;
ConfigLevel = 5;
CurEnv = (ENVELOPE *) malloc(sizeof(struct envelope));
CurEnv->e_to = (char *) malloc(MAX_MESSAGE_SIZE + 1);
// Read from stdin
addr = (char *) calloc(1,MAX_MESSAGE_SIZE+1);
#ifdef __AFL_HAVE_MANUAL_CONTROL
__AFL_INIT();
while (__AFL_LOOP(1000)) {
#endif
size = read(STDIN_FILENO, addr, MAX_MESSAGE_SIZE);
if (size == -1) {
printf("Failed to read from stdin\n");
return(-1);
}
memcpy(CurEnv->e_to, addr, size);
CurEnv->e_to[size] = '\0'; // the api requires a C string
parseaddr(addr, delim, delimptr);
#ifdef __AFL_HAVE_MANUAL_CONTROL
}
#endif
return 0;
}
编译harness
:
1
2
cp prescan-overflow-bad-fuzz.c prescan-overflow-bad.c
CC=afl-clang-fast AFL_USE_ASAN=1 make
创建种子文件:
1
2
$ mkdir in
$ echo -n "test@test.com" > in/seed
运行fuzz
:
1
$ afl-fuzz -m none -i in -o out ./prescan-bad
总结
通过对afl-training
的学习,知道了afl
的基本使用方法,fuzzer
主要对从标准输入以及文件获取数据的模糊测试支持比较友好;对于网络协议或其它形式获取输入的目标,我们可以修改代码编写适合afl fuzz
的harness
来进行模糊测试;合适的情况下可以开启persistent mode
以及使用并行fuzz
来提高效率,也可以用字典模式来提高效率;定期可以查看目标的覆盖率,修改种子文件来提高覆盖率。
万物皆可fuzz
。
文章首发于跳跳糖。
参考链接
- afl-training
- New in AFL: persistent mode
- Fuzzing capstone using AFL persistent mode
- afl-fuzz: making up grammar with a dictionary in hand
- Finding bugs in SQLite, the easy way
- gcov與LLVM中的實現
- docs/parallel_fuzzing.txt