ubifs性能优化分析

上传人:ni****g 文档编号:507581144 上传时间:2023-07-27 格式:DOC 页数:11 大小:26KB
返回 下载 相关 举报
ubifs性能优化分析_第1页
第1页 / 共11页
ubifs性能优化分析_第2页
第2页 / 共11页
ubifs性能优化分析_第3页
第3页 / 共11页
ubifs性能优化分析_第4页
第4页 / 共11页
ubifs性能优化分析_第5页
第5页 / 共11页
点击查看更多>>
资源描述

《ubifs性能优化分析》由会员分享,可在线阅读,更多相关《ubifs性能优化分析(11页珍藏版)》请在金锄头文库上搜索。

1、精选优质文档-倾情为你奉上ubifs性能优化分析 本文通过分析ubifs的mount、read、write和commit流程,挖掘ubifs背后的设计决策和性能优化手段,并结合自身产品的特点,给出一些读写性能改进方案。1. ubifs mount流程 mount过程就是初始化对象的过程。这其中包括上层(vfs层、页缓存层、通用块层)的回调接口的注册,从设备中获取相关信息(super block, master node,log,orphan, index node),初始化ubifs_info、TNC、LPT等内部对象,并对ubifs各区(默认不检查main区的index node,因为有lo

2、g区的日志,一般情况下不需要扫描所有的index tree)、journal head、lpt head等进行校验、检查、修复、更新,创建后台进程等。可以看出,mount中包含了检查和修复过程,所以ubifs并没有提供额外的修复工具,这一点区别于vfat、ext3等文件系统。 mount的核心函数为ubifs_init,其主要负责外部对象的初始化,内部对象的初始化由ubifs_get_sb负责。具体细节如下: ubifs_init主要流程: 创建ubifs inode slab(kmem_cache_create ) 注册ubifs TNC shrinker回收功能 ubifs_shrinke

3、r_info(register_shrinker ) 注册压缩算法(ubifs_compressors_init ) 注册debugfs(dbg_debugfs_init ) 注册ubifs文件系统 ubifs_fs_type(register_filesystem ) 调用ubifs_fs_type.ubifs_get_sb()继续初始化 ubifs_get_sb主要流程: 获取ubi_volume_desc对象 创建并初始化ubifs_info对象和super_block对象 读取并验证、修复ubifs_sb_node,并以ubifs_sb_node继续初始化ubifs_info对象 创建

4、wbuf和后台线程ubifs_bgt1_0,其主要作用是后台同步write-buffers、commit、垃圾回收等。 读取并验证、修复ubifs_mst_node,并以ubifs_mst_node继续初始化ubifs_info对象 如果发现 index and LPT 头有损坏就进行修复,以继续初始化ubifs_info 更新master node信息 遍历、检查indexing node (ubifs_zbranch, ubifs_znode)的总大小是否与c->bi.old_idx_sz一致(dbg_check_idx_size,由chk_index控制,默认关闭) 回放log,检

5、查修复index node,并更新TNC(ubifs_replay_journal) 删除orphan inode(ubifs_mount_orphans) 检查indexing tree的叶节点是否存在、crc等验证信息(dbg_check_filesystem,由chk_fs控制,默认关闭) 设置垃圾回收gc_waterline(UBIFS_FREE_RESERVE_RATIO 5),唤醒后台线程。2. ubifs read流程ubifs read按如下顺序,在存储层次中依次查找所需数据,直至找到并完成读取:page cachewrite bufferflashubifs一切数据都封装成n

6、ode,不同类型的node有不同的长度。一个data node最大可以存储的数据大小为UBIFS_BLOCK_SIZE (4096)。也就是说ubifs单次读的最大长度即block大小。ubifs读系统调用路径如下:read -> do_sync_read -> aio_read -> generic_file_aio_read -> generic_file_aio_read -> do_generic_file_read -> readpage -> ubifs_bulk_read 或 do_readpagedo_readpage:读取一个内存pa

7、ge,ubifs按block大小,把page切分成ubifs block后再依次按block进行读(read_block)。ubifs_bulk_read:如果data node连续并在同一个LEB中,并超过3个内存page及以上(read_in_a_row控制),自动启动bulk_read。或者在mount时可以指定bulk_read option使能bulk read功能。bulk read最多支持UBIFS_MAX_BULK_READ(32) 个block的连续读。3. ubifs write流程ubifs write按如下顺序,在存储层次中依次写入,直至写到flash中:page ca

8、chewrite bufferTNClog areamain areaubifs wirte系统调用过程如下: write -> do_sync_write -> aio_write -> ubifs_aio_write -> generic_file_aio_write -> _generic_file_aio_write -> generic_file_buffered_write -> generic_perform_writeubifs wirte分为三个阶段:write_begin, write_end, writepage。write_be

9、gin阶段主要做2件事:获取并更新page,flash空间预算申请。详细流程如下 : 查询cache page,如没有就创建一个;如果page需要update,调用do_readpage从flash读取数据更新page,为page申请flash上的budget空间,如果page appending 没置位或者ui->dirty置位,则不需要为此page申请budget,否则调用allocate_budget申请budget,流程如下:a)如果没有新数据,则返回成功 b)如果flash空间足够,则返回成功 c)如果fast budgeting,因为页缓存已经锁定,不能触发后面流程,只能直接

10、返回错误 d)脏也写回flash(shrink_liability) e)垃圾回收(0run_gc) f)内存数据提交(ubifs_run_commit)如果allocate_budget失败,释放之前申请的页缓存,并调用write_begin_slow,slow path先调用allocate_budget申请budget,然后再申请页缓存如果allocate_budget成功,vfs将用户数据就copy到page cache中,然后进入write_end write_end阶段主要做1件事:更新page和inode标记。详细流程如下:如果write_begin因为优化原因没有更新缓存页,在

11、write_end中更新缓存页如果发现脏页,设置page dirty标记如果发现appending,设置inode dirty标记然后vfs后台进程调度将page cache提交到 writeback queue, 然后通过pdflush线程调用ubifs_writepagewritepage阶段主要做3件事: 查找存储位置,更新wbuf,更新TNC。先写索引信息,再写数据信息。写入flash在commit流程中完成。 write_inode流程如下: 1. 按如下顺序查找存储位置(make_reservation): 1.1. 如果当前的write buf剩余空间满足大小,如果空间足够直接返

12、回; 1.2. 查找LPT内存节点 1.3. 触发垃圾回收(ubifs_garbage_collect,不是回收所有垃圾,只需要会受到符合要求的LEB即可) 1.4. 同步write buf(ubifs_wbuf_sync_nolock) 1.5. 将找到的leb作为bud 写入对于的refnode 以便commit的时候能找到这个bud 1.6. 更新wbuf中的leb为新的leb(ubifs_wbuf_seek_nolock) 1.7. 触发提交流程(do_commit) 2. 更新wbuf(write_head)。如果wbuf刚好满,将wbuf写入flash,并清空wbuf;如果node

13、大小大于wbuf有效部分,先把wbuf填满并将wubf写入flash,剩余部分中将整page大小部分字节写入flash,不满整页的写入wbuf中。如果设置sync标志,同步wbuf数据到flash,并清空wbuf(ubifs_wbuf_sync_nolock) 3. 更新TNC(ubifs_tnc_add)。从TNC中查找匹配key(inode->i_ino)的znode,在叶子节点层查找指定key的znode节点,如果key值精确匹配,返回该节点对应分支在父节点分支数组中的序号;如果key值不是精确匹配,返回父节点中最接近的分支号;返回-1 说明key值太小 在树的最左边不管最终有没有

14、找到匹配key的znode。并将从根到找到的znode这条路径上的索引znode都会被设置为脏(lookup_level0_dirty);如果znode不在TNC中,从flash中读取,并添加到TNC的页节点中;如果在TNC中找到,则将此页节点设置为脏,并找到LPT中此页节点对应的LEB所在路径上的所有LPT节点设置为脏。 do_writepage流程如下: 1. 将ubifs_data_node的data进行压缩(ubifs_compress) 2. 查找存储位置(make_reservation),同write_inode 步骤1 3. 更新wbuf(write_node),同write_head步骤2,但没有ubifs_wbuf_sync_nolock这一步 4. 更新TNC(ubifs_tnc_add),data 的key为(inode->i_ino, block)组合。同write_head步骤34. ubifs commit流程

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 办公文档 > 教学/培训

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号