与磁盘IO子系统
有关的[编辑
] /proc/sys/vm/dirty_ratio这个参数
控制文件
系统的文件系统写缓冲区的大小,单位是百分比,表示系统内存的百分比,表示当写缓冲使用到系统内存多少的时候,开始向磁盘写出数据
。增大之会使用更多系统内存用于磁盘写缓冲,也可以极大提高系统的写性能
。但是,当你需要持续、恒定的写入场合时,应该降低其数值,一般启动上缺省是10。下面是增大的方法:
echo '40' > /proc/sys/vm/dirty_ratio
[编辑
]
/proc/sys/vm/dirty_background_ratio这个参数控制文件系统的pdflush进程,在何时刷新磁盘。单位是百分比,表
示系统内存的百分比,意思是当写缓冲使用到系统内存多少的时候,pdflush开始向磁盘写出数据。增大之会使用更多系统内存用于磁盘写缓冲,也可以极大
提高系统的写性能。但是,当你需要持续、恒定的写入场合时,应该降低其数值,一般启动上缺省是 5。下面是增大的方法:
echo '20' > /proc/sys/vm/dirty_background_ratio
[编辑
] /proc/sys/vm/dirty_writeback_centisecs这个参数控制内核
的脏数据刷新进程pdflush的运行
间隔。单位是 1/100 秒。缺省数值是500,也就是 5 秒。如果你的系统是持续地写入动作,那么实际上还是降低这个数值比较好,这样可以把尖峰的写操作削平成多次写操作。设置
方法如下:
echo "200" > /proc/sys/vm/dirty_writeback_centisecs
如果你的系统是短期地尖峰式的写操作,并且写入数据不大(几十M/次)且内存有比较多富裕,那么应该增大此数值:
echo "1000" > /proc/sys/vm/dirty_writeback_centisecs
[编辑
]
/proc/sys/vm/dirty_expire_centisecs这个参数声明Linux内核写缓冲区里面的数据多“旧”了之后,pdflush
进程就开始考虑写到磁盘中去。单位是 1/100秒。缺省是30000,也就是
30秒的数据就算旧了,将会刷新磁盘。对于特别重载的写操作来说,这个值适当缩小也是好的,但也不能缩小太多,因为缩小太多也会导致IO提高太快。建议设
置为1500,也就是15秒算旧。
echo "1500" > /proc/sys/vm/dirty_expire_centisecs
当然,如果你的系统内存比较大,并且写入模式是间歇式的,并且每次写入的数据不大(比如几十M),那么这个值还是大些的好。
[编辑
] 与网络
IO子系统有关的[编辑
]
/proc/sys/net/ipv4/tcp_retrans_collapse这个参数控制TCP双方Window协商出现错误的时候的一些重传的行
为。但是在老的2.6的核(<2.6.18)里头,这个重传会导致kernel oops,kernel
panic,所以,如果出现有tcp_retrans_*样子的kernel panic,可以把这个参数给设置成0:
echo '0' > /proc/sys/net/ipv4/tcp_retrans_collapse
[编辑
] 提高Linux应对短连接的负载
能力在存在大量短连接的情况下,Linux的TCP栈一般都会生成大量的 TIME_WAIT 状态的socket。你可以用下面的命令
看到:
netstat -ant| grep -i time_wait
有时候,这个数目是惊人的:
netstat -ant|grep -i time_wait |wc -l
可能会超过三四万。这个时候,我们需要修改 linux
kernel 的 tcp time wait的时间,缩短之,有个 sysctl参数貌似可以使用,它是
/proc/sys/net/ipv4/tcp_fin_timeout,缺省值是60,也就是60秒,很多网上的资料都说将这个数值设置低一些就可以减
少netstat里面的TIME_WAIT状态,但是这个说法是错误的。经过认真阅读Linux的内核源代码,我们发现这个数值其实是输出用的,修改之后
并没有真正的读回内核中进行使用,而内核中真正管用的是一个宏定义,在 $KERNEL/include/net/tcp.h里面,有下面的行:
#define TCP_TIMEWAIT_LEN (60*HZ) /* how long to wait to destroy TIME-WAIT
* state, about 60 seconds */
而这个宏是真正控制 TCP TIME_WAIT 状态的超时时间的。如果我们希望减少 TIME_WAIT 状态的数目(从而节省一点点内核操作时间),那么可以把这个数值设置低一些,根据我们的测试,设置为 10 秒比较合适,也就是把上面的修改为:
#define TCP_TIMEWAIT_LEN (10*HZ) /* how long to wait to destroy TIME-WAIT
* state, about 60 seconds */
然后重新编译
内核,重启系统即可发现短连接造成的TIME_WAIT状态大大减少:
netstat -ant | grep -i time_wait |wc -l
一般情况都可以至少减少2/3。也能相应提高系统应对短连接的速度。
[编辑
]
/proc/irq/{number}/smp_affinity在多 CPU 的环境中,还有一个中断平衡的问题,比如,网卡中断会教给哪个 CPU
处理,这个参数控制哪些 CPU 可以绑定 IRQ 中断。其中的 {number} 是对应设备的中断编号,可以用下面的命令找出:
cat /proc/interrupt
比如,一般 eth0 的 IRQ 编号是 16,所以控制 eth0 中断绑定的 /proc 文件名是 /proc/irq/16/smp_affinity。上面这个命令还可以看到某些中断对应的CPU处理的次数,缺省的时候肯定是不平衡的。
设置其值的方法很简单,smp_affinity 自身是一个位掩码(bitmask),特定的位对应特定的 CPU,这样,01 就意味着只有第一个 CPU 可以处理对应的中断,而 0f(0x1111)意味着四个 CPU 都会参与中断处理。
几乎所有外设都有这个参数设置,可以关注一下。
这个数值的推荐设置,其实在很大程度上,让专门的CPU处理专门的中断是效率最高的,比如,给磁盘IO一个CPU,给网卡一个CPU,这样是比较合理的。
[编辑
] 一些测试结论
来源:http://www.pgsqldb.org/mwiki/ind ... 8%E5%8F%82%E6%95%B0
<!-- 限制游客浏览 END -->
分享到:
相关推荐
linux内核参数.pdf
linux内核参数修改 linux 内核 参数 修改 /proc/sys/kernel/shmall 该文件是在任何给定时刻系统上可以使用的共享内存的总量(以字节为单位)。 缺省设置:2097152 /proc/sys/kernel/shmax 该文件指定内核所允许的...
在服务器硬件资源额定有限的情况下,最大的压榨...除此之外,在考虑节省成本的情况下,可以修改Linux的内核相关TCP参数,来最大的提高服务器性能。当然,最基础的提高负载问题,还是升级服务器硬件了,这是最根本的。
Linux内核参数调整及ORACLE调优参数
主要讲解Linux内核参数。kernel.wake_balance = 1 导致调度运行线程被唤醒的任何avaialble调度的CPU。而不是它的CPU的优化的基础上缓存痕迹。默认为1 kernel.suid_dumpable = 0 kernel.unknown_nmi_panic = 0 该参数...
对linux内核参数一个详细的说明,以便于对linux参数有一个清晰的认识。在安装ORACLE产品时特别有用。
详细讲解linux内核参数,及日常调优,包括网络,文件系统,tcp,内存等
linux 内核 参数 模块 范例 #include <linux/init.h> #include <linux/module.h> MODULE_LICENSE("Dual BSD/GPL");
linux 内核参数VM调优 之 参数调节和场景分析,非常详细的
linux内核参数设置_linux内核的功能有哪些.docx
linux内核参数[文].pdf
关于cache怎么设置,linux系统内核设置优化tcp网络,另外可以参考优化内核配置
CentOS 优化 Linux 内核参数在末尾追加以下内容使配置立即生效。
Linux内核参数对Spark负载性能影响的研究.pdf
BootLoader 与Linux 内核的参数传递.pdf BootLoader 与Linux 内核的参数传递.pdf
Linux 内核网络参数配置资料 x x x x x x x x x
Linux 下 系统参数的调优经验之谈,非常给力的!调优系统必备
Linux内核编译选项说明 2.6.28的
由于Linux的内核参数信息都存在内存中,因此可以通过命令直接修改,并且修改后直接生效。但是,当系统重新启动后,原来设置的参数值就会丢失,而系统每次启动时都会自动去/etc/sysctl.conf文件中读取内核参数,因此...
linux 内核启动地址,解压缩,内核参数问题探讨.pdf