关于pytorch-profile的二三事。相较于使用C和Nvidia的相关profile工具,感觉包装之后使用pytorch-profile工具进行分析也是一个可取之处。
profile with autograd
首先是一个简单的CUDA计时工具:
def time_pytorch_function(func, input):
# CUDA IS ASYNC so can't use python time module
start = torch.cuda.Event(enable_timing=True)
end = torch.cuda.Event(enable_timing=True)
# Warmup
for _ in range(5):
func(input)
start.record()
func(input)
end.record()
torch.cuda.synchronize()
return start.elapsed_time(end)
如果仅仅是使用time进行相关操作的画,实际上记录的只是启动CUDA核函数所需要的时间,因此合理的记录需要使用cuda.Event操作来进行详细的记录。
但是即便如此,上面的计时工具也过于简单,在实际的场景中是需要知道各个部分所需要的时间的,这时候就可以使用第一步,pytorch autograd profile
with torch.autograd.profiler.profile(use_cuda=True) as prof:
torch.square(b)
print(prof.key_averages().table(sort_by="cuda_time_total", row_limit=10))
使用并不复杂,上述代码的输出如下:
这个东西会展示代码内核的所有过程以及其花费的时间(这里有一个注意的就是Square实际上使用的是乘法实现的,这个之后再说吧)
pytorch profiler
这个东西是一个可视化的分析工具,有点类似于nvidia-profile工具,其会生成一个json文件,可以在浏览器中打开并查看,其视图如下:
其使用方式倒也很简单,从简单的来看的话实际上只有如下步骤:
import torch
from torch.profiler import profile, record_function, ProfilerActivity
## Default way to use profiler
with profile(activities=[ProfilerActivity.CPU, ProfilerActivity.CUDA]) as prof:
for _ in range(10):
a = torch.square(torch.randn(10000, 10000).cuda())
prof.export_chrome_trace("trace.json")
当然考虑到实际场景可能会需要一些预热、重复等操作,可以使用如下版本:
with torch.profiler.profile(
activities=[
torch.profiler.ProfilerActivity.CPU,
torch.profiler.ProfilerActivity.CUDA,
],
# In this example with wait=1, warmup=1, active=2, repeat=1,
# profiler will skip the first step/iteration,
# start warming up on the second, record
# the third and the forth iterations,
# after which the trace will become available
# and on_trace_ready (when set) is called;
# the cycle repeats starting with the next step
schedule=torch.profiler.schedule(
wait=1,
warmup=1,
active=2,
repeat=1),
on_trace_ready=trace_handler
# on_trace_ready=torch.profiler.tensorboard_trace_handler('./log')
# used when outputting for tensorboard
) as p:
for iter in range(10):
torch.square(torch.randn(10000, 10000).cuda())
# send a signal to the profiler that the next iteration has started
p.step()
然而实际上上述的工具并不能提供给我们更加详细的相关内容以帮助我们实现更好的优化,但是一个可能的方法是通过查看源码比较来实现对核函数的更好理解,具体的可以在pytorch的代码仓库中找到:
ncu Nvidia-cuda profile
ncu是个非常神奇的东西,相较于nvidia基于java的profile工具,这个工具同样能提供足够多的信息以帮助优化或者理解,其使用方式也非常容易:
ncu python xxx.py
其将会把整个过程中的各个core以及对应的性能指标都进行输出,甚至能提供一个理想的峰值,只可惜支持的显卡相当有限。
CPP bind for pytorch
在进行内核编写的时候,如果想要方便的被pytorch和python所使用,还需要使用诸如pybind等操作来实现接口的调用,在某种程度上来说不算太过复杂,但是实际上pytorch有自己的构建方式:torch.utils.cpp_extension
,一段实例代码如下:
import torch
from torch.utils.cpp_extension import load_inline
# Define the CUDA kernel and C++ wrapper
cuda_source = '''
__global__ void square_matrix_kernel(const float* matrix, float* result, int width, int height) {
int row = blockIdx.y * blockDim.y + threadIdx.y;
int col = blockIdx.x * blockDim.x + threadIdx.x;
if (row < height && col < width) {
int idx = row * width + col;
result[idx] = matrix[idx] * matrix[idx];
}
}
torch::Tensor square_matrix(torch::Tensor matrix) {
const auto height = matrix.size(0);
const auto width = matrix.size(1);
auto result = torch::empty_like(matrix);
dim3 threads_per_block(16, 16);
dim3 number_of_blocks((width + threads_per_block.x - 1) / threads_per_block.x,
(height + threads_per_block.y - 1) / threads_per_block.y);
square_matrix_kernel<<<number_of_blocks, threads_per_block>>>(
matrix.data_ptr<float>(), result.data_ptr<float>(), width, height);
return result;
}
'''
cpp_source = "torch::Tensor square_matrix(torch::Tensor matrix);"
# Load the CUDA kernel as a PyTorch extension
square_matrix_extension = load_inline(
name='square_matrix_extension',
cpp_sources=cpp_source,
cuda_sources=cuda_source,
functions=['square_matrix'],
with_cuda=True,
extra_cuda_cflags=["-O2"],
build_directory='./load_inline_cuda',
# extra_cuda_cflags=['--expt-relaxed-constexpr']
)
a = torch.tensor([[1., 2., 3.], [4., 5., 6.]], device='cuda')
print(square_matrix_extension.square_matrix(a))
注意这里有一些有趣的选项:build_directory
可以让你将代码生成到指定目录,此外,直接使用CPP的好处就是不需要使用多个文件或者文件夹来方式库文件、接口文件等等,因此可以减少复杂程度。这也算的上是一种新的pytorch调用方式,只不过每次都需要编译(X
triton first
相较于直接使用CUDA暴力编写和尝试加速,这往往并不是一个较好的手段(尤其是考虑到C编程的复杂程度和接口的复杂程度),从CUDA直接到应用阶段的不断调优是需要根据各种性质来进行的,而CUDA无法很好的屏蔽掉这一点,因此可以考虑先从triton入手进行编写和优化(更何况triton直接生成机器码)只可惜比较幽默的是我的笔记本同样带不动triton(其最小的计算能力也得达到7.0)
但是使用triton还是有坏处的,一个较大的一点就是因为缺少内存管理导致实际上还有诸多地方进行优化(众所周知,内存是CUDA的一个重要部分),但是对于学习CUDA确实是一个不错之选。
@triton.jit
def square_kernel(output_ptr, input_ptr, input_row_stride, output_row_stride, n_cols, BLOCK_SIZE: tl.constexpr):
# The rows of the softmax are independent, so we parallelize across those
row_idx = tl.program_id(0)
# The stride represents how much we need to increase the pointer to advance 1 row
row_start_ptr = input_ptr + row_idx * input_row_stride
# The block size is the next power of two greater than n_cols, so we can fit each
# row in a single block
col_offsets = tl.arange(0, BLOCK_SIZE)
input_ptrs = row_start_ptr + col_offsets
# Load the row into SRAM, using a mask since BLOCK_SIZE may be > than n_cols
row = tl.load(input_ptrs, mask=col_offsets < n_cols, other=-float('inf'))
square_output = row * row
# Write back output to DRAM
output_row_start_ptr = output_ptr + row_idx * output_row_stride
output_ptrs = output_row_start_ptr + col_offsets
tl.store(output_ptrs, square_output, mask=col_offsets < n_cols)
def square(x):
n_rows, n_cols = x.shape
# The block size is the smallest power of two greater than the number of columns in `x`
BLOCK_SIZE = triton.next_power_of_2(n_cols)
# Another trick we can use is to ask the compiler to use more threads per row by
# increasing the number of warps (`num_warps`) over which each row is distributed.
# You will see in the next tutorial how to auto-tune this value in a more natural
# way so you don't have to come up with manual heuristics yourself.
num_warps = 4
if BLOCK_SIZE >= 2048:
num_warps = 8
if BLOCK_SIZE >= 4096:
num_warps = 16
# Allocate output
y = torch.empty_like(x)
# Enqueue kernel. The 1D launch grid is simple: we have one kernel instance per row o
# f the input matrix
square_kernel[(n_rows, )](
y,
x,
x.stride(0),
y.stride(0),
n_cols,
num_warps=num_warps,
BLOCK_SIZE=BLOCK_SIZE,
)
return y
pytorch spend time on where?
主要有如下几部分:
- python处理
- 数据结构构建和分配对应的Tensor
- 数据读写
- GPU计算
- kernel启动时间
- 内存访问读写(重大开销)
- 实际计算时间(重大开销)
相较于使用一步一步进行计算的过程,pytorch逐步进行着操作融合的改进,比如说:
%timeit gelu(x);
%timeit torch.nn.functional.gelu(x)
前者是自定义的gelu函数,后者是torch自带的,相较于自定义的函数,torch自带的尽可能在内核中完成所有的操作而不是一个一个操作进行
roofline model用于权衡带宽和计算速度的在理想情况下的最大值,通常情况下可以通过隐蔽延迟的方式进行提速
pytorch CUDA
主要在torch.cuda中的一些设置,其中非常常见的是一些设备的设置,此外还有一些很细节的设置:
torch.backends.cuda.matmul.allow_tf32 = self.train_config.use_amp
torch.backends.cudnn.allow_tf32 = self.train_config.use_amp
这里是使用Tensor Core进行矩阵乘法、卷积的计算,但是问题在于tensor core是半精度的,对于全精度的计算会有一定的精度损失。AMP
Optimizing optimizer
首先,在了解优化器之前,如何对多维数组实现快速的计算?
-
最直观就是传vector,但是CUDA不支持
-
ppt给出这样一个例子:对于单个数字的add操作或许可以直接进行,但是对于数组(多维Tensor)而言,应该如何使用CUDA实现?通常来说最简单直接的方式就是将所有的数组转换成向量,之后通过二维指针的形式传输到CUDA内核中。然而这种方式完全错误,传入二维指针之后,很显然,CUDA是无法获取其中的一维数据的,因此会导致引用出错(因为这些数据还在CPU上),因此,合理的方式是传引用?但是注意,C还没有引用这个东西
-
可以尝试使用结构体包装三个数组进去然后传入到kernel。但是由于CUDA参数空间限制为4KB因此会出现错误