技术干货 | 漫游Linux块IO

2022-12-12 15:18:31 来源:51CTO博客

前言

在计算机的世界里,我们可以将业务进行抽象简化为两种场景——计算密集型IO密集型。这两种场景下的表现,决定这一个计算机系统的能力。数据库作为一个典型的基础软件,它的所有业务逻辑同样可以抽象为这两种场景的混合。因此,一个数据库系统性能的强悍与否,往往跟操作系统和硬件提供的计算能力、IO能力紧密相关。


(资料图片仅供参考)

除了硬件本身的物理极限,操作系统在软件层面的处理以及提供的相关机制也尤为重要。因此,想要数据库发挥更加极限的性能,对操作系统内部相关机制和流程的理解就很重要。

本篇文章,我们就一起看下Linux中一个IO请求的生命周期。Linux发展到今天,其内部的IO子系统已经相当复杂。每个点展开都能自成一篇,所以本次仅是对块设备的写IO做一个快速的漫游,后续再对相关专题进行详细分解。

​​

从用户态程序出发

首先需要明确的是,什么是块设备?我们知道IO设备可以分为字符设备和块设备,字符设备以字节流的方式访问数据,比如我们的键盘鼠标。而块设备则是以块为单位访问数据,并且支持随机访问,典型的块设备就是我们常见的机械硬盘和固态硬盘。

一个应用程序想将数据写入磁盘,需要通过系统调用来完成:open打开文件 ---> write写入文件 ---> close关闭文件。

下面是write系统调用的定义,我们可以看到,应用程序只需要指定三个参数:

1. 想要写入的文件

2. 写入数据所在的内存地址

3. 写入数据的长度

SYSCALL_DEFINE3(write, unsigned int, fd, const char __user *, buf,    size_t, count){  struct fd f = fdget_pos(fd);  ssize_t ret = -EBADF;  if (f.file) {    loff_t pos = file_pos_read(f.file);    ret = vfs_write(f.file, buf, count, &pos);    if (ret >= 0)      file_pos_write(f.file, pos);    fdput_pos(f);  }  return ret;}

而剩下的工作就进入到内核中的虚拟文件系统(VFS)中进行处理。

虚拟文件系统(VFS)

在Linux中一切皆文件,它提供了虚拟文件系统VFS的机制,用来抽象各种资源,使应用程序无需关心底层细节,只需通过open、read/write、close这几个通用接口便可以管理各种不同的资源。不同的文件系统通过实现各自的通用接口来满足不同的功能。

devtmpfs

挂载在/dev目录,devtmpfs中的文件代表各种设备。因此,对devtmpfs文件的读写操作,就是直接对相应设备的操作。

如果应用程序打开的是一个块设备文件,则说明它直接对一个块设备进行读写,调用块设备的write函数:

const struct file_operations def_blk_fops = {  .open    = blkdev_open,    ... ...  .read    = do_sync_read,  .write    = do_sync_write,    ... ...};

磁盘文件系统(ext4等)

这是我们最为熟悉的文件系统类型,它的文件就是我们一般理解的文件,对应实际磁盘中按照特定格式组织并管理的区域。对这类文件的读写操作,都会按照固定规则转化为对应磁盘的读写操作。

应用程序如果打开的是一个ext4文件系统的文件,则会调用ext4的write函数:

const struct file_operations_extend  ext4_file_operations = {  .kabi_fops = {    ... ...    .read    = do_sync_read,    .write    = do_sync_write,    ... ...    .open    = ext4_file_open,    ... ...};

buffer/cache

Linux提供了缓存来提高IO的性能,无论打开的是设备文件还是磁盘文件,一般情况IO会先写入到系统缓存中并直接返回,IO生命周期结束。后续系统刷新缓存或者主动调用sync,数据才会被真正写入到块设备中。有意思的是,针对块设备的称为buffer,针对磁盘文件的称为cache。

ssize_t __generic_file_aio_write(struct kiocb *iocb, const struct iovec *iov,         unsigned long nr_segs, loff_t *ppos)    ... ...  if (io_is_direct(file)) {    ... ...    written = generic_file_direct_write(iocb, iov, &nr_segs, pos,              ppos, count, ocount);    ... ...  } else {    written = generic_file_buffered_write(iocb, iov, nr_segs,        pos, ppos, count, written);  }    ... ...

Direct IO

当打开文件时候指定了O_DIRECT标志,则指定文件的IO为direct IO,它会绕过系统缓存直接发送给块设备。在发送给块设备之前,虚拟文件系统会将write函数参数表示的IO转化为dio,在其中封装了一个个bio结构,接着调用submit_bio将这些bio提交到通用块层进行处理。

do_blockdev_direct_IO     -> dio_bio_submit       -> submit_bio

通用块层

核心结构

1.bio/request

bio是Linux通用块层和底层驱动的IO基本单位,可以看到它的最重要的几个属性,一个bio就可以表示一个完整的IO操作:​​​​​​​
struct bio {  sector_t    bi_sector; //io的起始扇区... ...  struct block_device  *bi_bdev;  //对应的块设备... ...  bio_end_io_t    *bi_end_io;  //io结束的回调函数... ...  struct bio_vec    *bi_io_vec;  //内存page列表... ...};
request代表一个独立的IO请求,是通用块层和驱动层进行IO传递的结构,它容纳了一组连续的bio。通用块层提供了很多IO调度策略,将多个bio合并生成一个request,以提高IO的效率。

2.gendisk

每个块设备都对应一个gendisk结构,它定义了设备名、主次设备号、请求队列,和设备的相关操作函数。通过add_disk,我们就真正在系统中定义一个块设备。

3.request_queue

这个即是日常所说的IO请求队列,通用块层将IO转化为request并插入到request_queue中,随后底层驱动从中取出完成后续IO处理。

struct request_queue {  ... ...  struct elevator_queue  *elevator;  //调度器  request_fn_proc    *request_fn;  //请求处理函数  make_request_fn    *make_request_fn;  //请求入队函数  ... ...  softirq_done_fn    *softirq_done_fn;  //软中断处理  struct device    *dev;  unsigned long    nr_requests;  ... ...};

处理流程

在收到上层文件系统提交的bio后,通用块层最主要的功能就是根据bio创建request,并插入到request_queue中。

在这个过程中会对bio进行一系列处理:当bio长度超过限制会被分割,当bio访问地址相邻则会被合并。

request创建后,根据request_queue配置的不同elevator调度器,request插入到对应调度器队列中。在底层设备驱动程序从request_queue取出request处理时,不同elevator调度器返回request策略不同,从而实现对request的调度。

void blk_queue_bio(struct request_queue *q, struct bio *bio){    ... ...  el_ret = elv_merge(q, &req, bio);    //尝试将bio合并到已有的request中  ... ...  req = get_request(q, rw_flags, bio, 0);  //无法合并,申请新的request    ... ...  init_request_from_bio(req, bio);}void blk_flush_plug_list(struct blk_plug *plug, bool from_schedule){    ... ...      __elv_add_request(q, rq, ELEVATOR_INSERT_SORT_MERGE);  //将request插入request_queue的elevator调度器    ... ...}

请求队列

Linux中提供了不同类型的request_queue,一个是本文主要涉及的single-queue,另外一个是multi-queue。single-queue是在早期的硬件设备(例如机械硬盘)只能串行处理IO的背景下创建的,而随着更快速的SSD设备的普及,single-queue已经无法发挥底层存储的性能了,进而诞生了multi-queue,它优化了很多机制使IOPS达到了百万级别以上。至于multi-queue和single-queue的详细区别,本篇不做讨论。

每个队列都可以配置不同的调度器,常见的有noop、deadline、cfq等。不同的调度器会根据IO类型、进程优先级、deadline等因素,对request请求进一步进行合并和排序。我们可以通过sysfs进行配置,来满足业务场景的需求:

#/sys/block/sdx/queuescheduler      #调度器配置nr_requests      #队列深度max_sectors_kb    #最大IO大小

设备驱动

在IO经过通用块层的处理和调度后,就进入到了设备驱动层,就开始需要和存储硬件进行交互。

以scsi驱动为例:在scsi的request处理函数scsi_request_fn中,循环从request_queue中取request,并创建scsi_cmd下发给注册到scsi子系统的设备驱动。需要注意的是,scsi_cmd中会注册一个scsi_done的回调函数。

static void scsi_request_fn(struct request_queue *q){  for (;;) {    ... ...    req = blk_peek_request(q);    //从request_queue中取出request    ... ...        cmd->scsi_done = scsi_done;    //指定cmd完成后回调    rtn = scsi_dispatch_cmd(cmd);  //下发将request对应的scsi_cmd    ... ...  }}int scsi_dispatch_cmd(struct scsi_cmnd *cmd){  ... ...  rtn = host->hostt->queuecommand(host, cmd);    ... ...}

IO完成

软中断

每个request_queue都会注册软中断号,用来进行IO完成后的下半部处理,scsi驱动中注册的为:scsi_softirq_done

struct request_queue *scsi_alloc_queue(struct scsi_device *sdev){    ... ...  q = __scsi_alloc_queue(sdev->host, scsi_request_fn);    ... ...  blk_queue_softirq_done(q, scsi_softirq_done);  ... ...}

硬中断

当存储设备完成IO后,会通过硬件中断通知设备驱动,此时设备驱动程序会调用scsi_done回调函数完成scsi_cmd,并最终触发BLOCK_SOFTIRQ软中断。

void __blk_complete_request(struct request *req){      ... ...      raise_softirq_irqoff(BLOCK_SOFTIRQ);      ... ...}

而BLOCK_SOFTIRQ软中断的处理函数就是之前注册的scsi_softirq_done,通过自下而上层层回调,到达bio_end_io,完成整个IO的生命周期。

-> scsi_finish_command      -> scsi_io_completion        -> scsi_end_request          -> blk_update_request            -> req_bio_endio              -> bio_endio

总结

以上,我们很粗略地漫游了Linux中一个块设备IO的生命周期,这是一个很复杂的过程,其中很多机制和细节只是点到为止,但是我们有了对整个IO路径的整体的认识。当我们再遇到IO相关问题的时候,可以更加快速地找到关键部分,并深入研究解决。

作者:沃趣科技原型研发部

标签: 应用程序 文件系统 生命周期

上一篇:【世界热闻】HTML基础使用
下一篇:世界即时看!#yyds干货盘点# react笔记之学习之props父子传值