皮皮网

皮皮网

【pcl 源码包编译详解】【源码的该怎么写】【源码部署在哪个文件】tinode源码

时间:2024-11-19 03:34:34 分类:知识

1.深入理解Linux的源码epoll机制
2.linux查看cpu占用率的方法:
3.金三银四Linux内核面试题(2022最新版)

tinode源码

深入理解Linux的epoll机制

       在Linux系统之中有一个核心武器:epoll池,在高并发的源码,高吞吐的源码IO系统中常常见到epoll的身影。

IO多路复用

       在Go里最核心的源码是Goroutine,也就是源码所谓的协程,协程最妙的源码pcl 源码包编译详解一个实现就是异步的代码长的跟同步代码一样。比如在Go中,源码网络IO的源码read,write看似都是源码同步代码,其实底下都是源码异步调用,一般流程是源码:

write(/*IO参数*/)请求入队等待完成后台loop程序发送网络请求唤醒业务方

       Go配合协程在网络IO上实现了异步流程的同步代码化。核心就是源码用epoll池来管理网络fd。

       实现形式上,源码后台的源码程序只需要1个就可以负责管理多个fd句柄,负责应对所有的源码业务方的IO请求。这种一对多的IO模式我们就叫做IO多路复用。

       多路是指?多个业务方(句柄)并发下来的IO。

       复用是指?复用这一个后台处理程序。

       站在IO系统设计人员的角度,业务方咱们没办法提要求,因为业务是上帝,只有你服从的份,他们要创建多个fd,那么你就需要负责这些fd的处理,并且最好还要并发起来。

       业务方没法提要求,那么只能要求后台loop程序了!

       要求什么呢?快!快!快!这就是最核心的要求,处理一定要快,要给每一个fd通道最快的感受,要让每一个fd觉得,你只在给他一个人跑腿。

       那有人又问了,那我一个IO请求(比如write)对应一个线程来处理,这样所有的IO不都并发了吗?是可以,但是有瓶颈,线程数一旦多了,性能是反倒会差的。

       这里不再对比多线程和IO多路复用实现高并发之间的区别,详细的可以去了解下nginx和redis高并发的秘密。

最朴实的实现方式?

       我不用任何其他系统调用,能否实现IO多路复用?

       可以的。那么写个for循环,每次都尝试IO一下,读/写到了就处理,读/写不到就sleep下。这样我们不就实现了1对多的IO多路复用嘛。

whileTrue:foreach句柄数组{ read/write(fd,/*参数*/)}sleep(1s)

       慢着,有个问题,上面的程序可能会被卡死在第三行,使得整个系统不得运行,为什么?

       默认情况下,我们没有加任何参数create出的句柄是阻塞类型的。我们读数据的时候,如果数据还没准备好,是会需要等待的,当我们写数据的时候,如果还没准备好,默认也会卡住等待。所以,在上面伪代码第三行是可能被直接卡死,而导致整个线程都得到不到运行。

       举个例子,现在有,源码的该怎么写,这3个句柄,现在读写都没有准备好,只要read/write(,/*参数*/)就会被卡住,但,这两个句柄都准备好了,那遍历句柄数组,,的时候就会卡死在前面,后面,则得不到运行。这不符合我们的预期,因为我们IO多路复用的loop线程是公共服务,不能因为一个fd就直接瘫痪。

       那这个问题怎么解决?

       只需要把fd都设置成非阻塞模式。这样read/write的时候,如果数据没准备好,返回EAGIN的错误即可,不会卡住线程,从而整个系统就运转起来了。比如上面句柄还未就绪,那么read/write(,/*参数*/)不会阻塞,只会报个EAGIN的错误,这种错误需要特殊处理,然后loop线程可以继续执行,的读写。

       以上就是最朴实的IO多路复用的实现了。但是好像在生产环境没见过这种IO多路复用的实现?为什么?

       因为还不够高级。for循环每次要定期sleep1s,这个会导致吞吐能力极差,因为很可能在刚好要sleep的时候,所有的fd都准备好IO数据,而这个时候却要硬生生的等待1s,可想而知。。。

       那有同学又要质疑了,那for循环里面就不sleep嘛,这样不就能及时处理了吗?

       及时是及时了,但是CPU估计要跑飞了。不加sleep,那在没有fd需要处理的时候,估计CPU都要跑到%了。这个也是无法接受的。

       纠结了,那sleep吞吐不行,不sleep浪费cpu,怎么办?

       这种情况用户态很难有所作为,只能求助内核来提供机制协助来。因为内核才能及时的管理这些通知和调度。

       我们再梳理下IO多路复用的需求和原理。IO多路复用就是1个线程处理多个fd的模式。我们的要求是:这个“1”就要尽可能的快,避免一切无效工作,要把所有的时间都用在处理句柄的IO上,不能有任何空转,sleep的时间浪费。

       有没有一种工具,我们把一箩筐的fd放到里面,只要有一个fd能够读写数据,后台loop线程就要立马唤醒,全部马力跑起来。其他时间要把cpu让出去。

       能做到吗?能,这种需求只能内核提供机制满足你。

这事Linux内核必须要给个说法?

       是源码部署在哪个文件的,想要不用sleep这种辣眼睛的实现,Linux内核必须出手了,毕竟IO的处理都是内核之中,数据好没好内核最清楚。

       内核一口气提供了3种工具select,poll,epoll。

       为什么有3种?

       历史不断改进,矬->较矬->卧槽、高效的演变而已。

       Linux还有其他方式可以实现IO多路复用吗?

       好像没有了!

       这3种到底是做啥的?

       这3种都能够管理fd的可读可写事件,在所有fd不可读不可写无所事事的时候,可以阻塞线程,切走cpu。fd有情况的时候,都要线程能够要能被唤醒。

       而这三种方式以epoll池的效率最高。为什么效率最高?

       其实很简单,这里不详说,其实无非就是epoll做的无用功最少,select和poll或多或少都要多余的拷贝,盲猜(遍历才知道)fd,所以效率自然就低了。

       举个例子,以select和epoll来对比举例,池子里管理了个句柄,loop线程被唤醒的时候,select都是蒙的,都不知道这个fd里谁IO准备好了。这种情况怎么办?只能遍历这个fd,一个个测试。假如只有一个句柄准备好了,那相当于做了1千多倍的无效功。

       epoll则不同,从epoll_wait醒来的时候就能精确的拿到就绪的fd数组,不需要任何测试,拿到的就是要处理的。

epoll池原理

       下面我们看一下epoll池的使用和原理。

epoll涉及的系统调用

       epoll的使用非常简单,只有下面3个系统调用。

epoll_createepollctlepollwait

       就这?是的,就这么简单。

       epollcreate负责创建一个池子,一个监控和管理句柄fd的池子;

       epollctl负责管理这个池子里的fd增、删、改;

       epollwait就是负责打盹的,让出CPU调度,但是只要有“事”,立马会从这里唤醒;

epoll高效的原理

       Linux下,epoll一直被吹爆,作为高并发IO实现的秘密武器。其中原理其实非常朴实:epoll的实现几乎没有做任何无效功。我们从使用的角度切入来一步步分析下。

       首先,epoll的第一步是创建一个池子。这个使用epoll_create来做:

       原型:

intepoll_create(intsize);

       示例:

epollfd=epoll_create();if(epollfd==-1){ perror("epoll_create");exit(EXIT_FAILURE);}

       这个池子对我们来说是黑盒,这个黑盒是用来装fd的,我们暂不纠结其中细节。我们拿到了一个epollfd,这个epollfd就能唯一代表这个epoll池。

       然后,我们就要往这个epoll池里放fd了,这就要用到epoll_ctl了

       原型:

intepoll_ctl(intepfd,intop,intfd,structepoll_event*event);

       示例:

if(epoll_ctl(epollfd,EPOLL_CTL_ADD,,&ev)==-1){ perror("epoll_ctl:listen_sock");exit(EXIT_FAILURE);}

       上面,我们就把句柄放到这个池子里了,op(EPOLL_CTL_ADD)表明操作是macd大牛启动指标源码增加、修改、删除,event结构体可以指定监听事件类型,可读、可写。

       第一个跟高效相关的问题来了,添加fd进池子也就算了,如果是修改、删除呢?怎么做到时间快?

       这里就涉及到你怎么管理fd的数据结构了。

       最常见的思路:用list,可以吗?功能上可以,但是性能上拉垮。list的结构来管理元素,时间复杂度都太高O(n),每次要一次次遍历链表才能找到位置。池子越大,性能会越慢。

       那有简单高效的数据结构吗?

       有,红黑树。Linux内核对于epoll池的内部实现就是用红黑树的结构体来管理这些注册进程来的句柄fd。红黑树是一种平衡二叉树,时间复杂度为O(logn),就算这个池子就算不断的增删改,也能保持非常稳定的查找性能。

       现在思考第二个高效的秘密:怎么才能保证数据准备好之后,立马感知呢?

       epoll_ctl这里会涉及到一点。秘密就是:回调的设置。在epoll_ctl的内部实现中,除了把句柄结构用红黑树管理,另一个核心步骤就是设置poll回调。

       思考来了:poll回调是什么?怎么设置?

       先说说file_operations->poll是什么?

       在fd篇说过,Linux设计成一切皆是文件的架构,这个不是说说而已,而是随处可见。实现一个文件系统的时候,就要实现这个文件调用,这个结构体用structfile_operations来表示。这个结构体有非常多的函数,我精简了一些,如下:

structfile_operations{ ssize_t(*read)(structfile*,char__user*,size_t,loff_t*);ssize_t(*write)(structfile*,constchar__user*,size_t,loff_t*);__poll_t(*poll)(structfile*,structpoll_table_struct*);int(*open)(structinode*,structfile*);int(*fsync)(structfile*,loff_t,loff_t,intdatasync);//....};

       你看到了read,write,open,fsync,poll等等,这些都是对文件的定制处理操作,对于文件的操作其实都是在这个框架内实现逻辑而已,比如ext2如果有对read/write做定制化,那么就会是ext2_read,ext2_write,ext4就会是ext4_read,ext4_write。在open具体“文件”的时候会赋值对应文件系统的file_operations给到file结构体。

       那我们很容易知道read是文件系统定制fd读的行为调用,write是文件系统定制fd写的行为调用,file_operations->poll呢?

       这个是定制监听事件的机制实现。通过poll机制让上层能直接告诉底层,我这个fd一旦读写就绪了,请底层硬件(比如网卡)回调的时候自动把这个fd相关的结构体放到指定队列中,并且唤醒操作系统。

       举个例子:网卡收发包其实走的异步流程,操作系统把数据丢到一个指定地点,网卡不断的从这个指定地点掏数据处理。请求响应通过中断回调来处理,中断一般拆分成两部分:硬中断和软中断。poll函数就是把这个软中断回来的路上再加点料,只要读写事件触发的中小医院系统源码时候,就会立马通知到上层,采用这种事件通知的形式就能把浪费的时间窗就完全消失了。

       划重点:这个poll事件回调机制则是epoll池高效最核心原理。

       划重点:epoll池管理的句柄只能是支持了file_operations->poll的文件fd。换句话说,如果一个“文件”所在的文件系统没有实现poll接口,那么就用不了epoll机制。

       第二个问题:poll怎么设置?

       在epoll_ctl下来的实现中,有一步是调用vfs_poll这个里面就会有个判断,如果fd所在的文件系统的file_operations实现了poll,那么就会直接调用,如果没有,那么就会报告响应的错误码。

staticinline__poll_tvfs_poll(structfile*file,structpoll_table_struct*pt){ if(unlikely(!file->f_op->poll))returnDEFAULT_POLLMASK;returnfile->f_op->poll(file,pt);}

       你肯定好奇poll调用里面究竟是实现了什么?

       总结概括来说:挂了个钩子,设置了唤醒的回调路径。epoll跟底层对接的回调函数是:ep_poll_callback,这个函数其实很简单,做两件事情:

       把事件就绪的fd对应的结构体放到一个特定的队列(就绪队列,readylist);

       唤醒epoll,活来啦!

       当fd满足可读可写的时候就会经过层层回调,最终调用到这个回调函数,把对应fd的结构体放入就绪队列中,从而把epoll从epoll_wait出唤醒。

       这个对应结构体是什么?

       结构体叫做epitem,每个注册到epoll池的fd都会对应一个。

       就绪队列很高级吗?

       就绪队列就简单了,因为没有查找的需求了呀,只要是在就绪队列中的epitem,都是事件就绪的,必须处理的。所以就绪队列就是一个最简单的双指针链表。

       小结下:epoll之所以做到了高效,最关键的两点:

       内部管理fd使用了高效的红黑树结构管理,做到了增删改之后性能的优化和平衡;

       epoll池添加fd的时候,调用file_operations->poll,把这个fd就绪之后的回调路径安排好。通过事件通知的形式,做到最高效的运行;

       epoll池核心的两个数据结构:红黑树和就绪列表。红黑树是为了应对用户的增删改需求,就绪列表是fd事件就绪之后放置的特殊地点,epoll池只需要遍历这个就绪链表,就能给用户返回所有已经就绪的fd数组;

哪些fd可以用epoll来管理?

       再来思考另外一个问题:由于并不是所有的fd对应的文件系统都实现了poll接口,所以自然并不是所有的fd都可以放进epoll池,那么有哪些文件系统的file_operations实现了poll接口?

       首先说,类似ext2,ext4,xfs这种常规的文件系统是没有实现的,换句话说,这些你最常见的、真的是文件的文件系统反倒是用不了epoll机制的。

       那谁支持呢?

       最常见的就是网络套接字:socket。网络也是epoll池最常见的应用地点。Linux下万物皆文件,socket实现了一套socket_file_operations的逻辑(net/socket.c):

staticconststructfile_operationssocket_file_ops={ .read_iter=sock_read_iter,.write_iter=sock_write_iter,.poll=sock_poll,//...};

       我们看到socket实现了poll调用,所以socketfd是天然可以放到epoll池管理的。

       还有吗?

       有的,其实Linux下还有两个很典型的fd,常常也会放到epoll池里。

       eventfd:eventfd实现非常简单,故名思义就是专门用来做事件通知用的。使用系统调用eventfd创建,这种文件fd无法传输数据,只用来传输事件,常常用于生产消费者模式的事件实现;

       timerfd:这是一种定时器fd,使用timerfd_create创建,到时间点触发可读事件;

       小结一下:

       ext2,ext4,xfs等这种真正的文件系统的fd,无法使用epoll管理;

       socketfd,eventfd,timerfd这些实现了poll调用的可以放到epoll池进行管理;

       其实,在Linux的模块划分中,eventfd,timerfd,epoll池都是文件系统的一种模块实现。

思考

       前面我们已经思考了很多知识点,有一些简单有趣的知识点,提示给读者朋友,这里只抛砖引玉。

       问题:单核CPU能实现并行吗?

       不行。

       问题:单线程能实现高并发吗?

       可以。

       问题:那并发和并行的区别是?

       一个看的是时间段内的执行情况,一个看的是时间时刻的执行情况。

       问题:单线程如何做到高并发?

       IO多路复用呗,今天讲的epoll池就是了。

       问题:单线程实现并发的有开源的例子吗?

       redis,nginx都是非常好的学习例子。当然还有我们Golang的runtime实现也尽显高并发的设计思想。

总结

       IO多路复用的原始实现很简单,就是一个1对多的服务模式,一个loop对应处理多个fd;

       IO多路复用想要做到真正的高效,必须要内核机制提供。因为IO的处理和完成是在内核,如果内核不帮忙,用户态的程序根本无法精确的抓到处理时机;

       fd记得要设置成非阻塞的哦,切记;

       epoll池通过高效的内部管理结构,并且结合操作系统提供的poll事件注册机制,实现了高效的fd事件管理,为高并发的IO处理提供了前提条件;

       epoll全名eventpoll,在Linux内核下以一个文件系统模块的形式实现,所以有人常说epoll其实本身就是文件系统也是对的;

       socketfd,eventfd,timerfd这三种”文件“fd实现了poll接口,所以网络fd,事件fd,定时器fd都可以使用epoll_ctl注册到池子里。我们最常见的就是网络fd的多路复用;

       ext2,ext4,xfs这种真正意义的文件系统反倒没有提供poll接口实现,所以不能用epoll池来管理其句柄。那文件就无法使用epoll机制了吗?不是的,有一个库叫做libaio,通过这个库我们可以间接的让文件使用epoll通知事件,以后详说,此处不表;

后记

       epoll池使用很简洁,但实现不简单。还是那句话,Linux内核帮你包圆了。

       今天并没有罗列源码实现,以很小的思考点为题展开,简单讲了一些epoll的思考,以后有机会可以分享下异步IO(aio)和epoll能产生什么火花?Golang是怎样使用epoll池的?敬请期待哦。

       原创不易,更多干货,关注:奇伢云存储

linux查看cpu占用率的方法:

       top

       top是最常用的查看系统资源使用情况的工具,包括CPU、内存等等资源。这里主要关注CPU资源。

       1.1 /proc/loadavg

       load average取自/proc/loadavg。

       9. 9. 8. 3/

       前三个数字是1、5、分钟内进程队列中平均进程数,包括正在运行的进程+准备好等待运行的进程。

       第四个数字分子表示正在运行的进程数,分母是进程总数。

       最后一个数字是最近运行的进程ID号。

       其中top取的是/proc/loadavg的前三个数。

       1.2 top使用

       打开top,可以指定更新的周期。

       输入H,打开隐藏的线程;输入1,可以显示单核CPU使用情况。

       top -H -b -d 1 -n > top.txt,每个1秒统计一次,共次,显示线程细节,并保存到top.txt中。

       top采样来源你还依赖于/proc/stat和/proc//stat两个,这两个的详细介绍参考:/proc/stat和/proc//stat。

       其中CPU信息对应的含义如下:

       us是user的意思,统计nice小于等于0的用户空间进程,也即优先级为~。 ni是nice的意思,统计nice大于0的用户空间进程,也即优先级为~。 sys是system的意思,统计内核态运行时间,不包括中断。 id是idle的意思,几系统处于空闲态。 wa是iowait的意思,统计io等待时间。 hi是hardware interrupt,统计硬件中断时间。 si是software interrupt,统计软中断时间。 最后的st是steal的意思。

       perf

       通过sudo perf top -s comm,可以查看当前系统运行进程占比。

       这里不像top一样区分idle、system、user,这里的占比是各个进程在总运行时间里面占比。

       通过sudo perf record记录采样信息,然后通过sudo perf report -s comm。

       sar、ksar

       sar是System Activity Report的意思,可以用于实时观察当前系统活动,也可以生成历史记录的报告。

       要使用sar需要安装sudo apt install sysstat,然后对sysstat进行配置。

       sar用于记录统计信息,ksar用于将记录的信息图形化输出。

       ksar下载地址在: github.com/vlsi/ksar/re...

       sudo gedit /etc/default/sysstat--------------------------------将 ENABLED=“false“ 改为ENABLED=“true“。 sudo gedit /etc/cron.d/sysstat--------------------------------修改sar的周期等配置。 sudo /etc/init.d/sysstat restart--------------------------------重启sar服务 /var/log/sysstat/--------------------------------------------------sar log存放目录

       使用sar记录开机到目前的统计信息到文件sar.txt。

       LC_ALL=C sar -A > sar.txt

       PS:这里直接使用sar -A,在ksar中无法正常显示。

       如下执行java -jar ksar.jar,然后Data->Load from text file...选择保存的sar.txt文件。

       得到如下的图表。

       还可以通过sar记录一段时间的信息,指定采样周期和采样次数。

       这些命令前加上LC_ALL=C之后保存到文件中,都可以在ksar中图形化显示。

       collectl、colplot

       collectl是一款非常优秀并且有着丰富的命令行功能的实用程序,你可以用它来采集描述当前系统状态的性能数据。

       不同于大多数其它的系统监控工具,collectl 并非仅局限于有限的系统度量,相反,它可以收集许多不同类型系统资源的相关信息,如 cpu 、disk、memory 、network 、sockets 、 tcp 、inodes 、infiniband 、 lustre 、memory、nfs、processes、quadrics、slabs和buddyinfo等。

       同时collectl还可以替代常用工具,比如top、vmstat、ps、iotop等。

       安装collectl:

       sudo apt-get install collectl

       collectl的使用很简单,默认collectl显示cpu、磁盘、网络信息。

       collectl还可以显示更多的子系统信息,如果选项存在对应的大写选项,大写选项表示更细节的设备统计信息。

       b – buddy info (内存碎片) c – 所有CPU的合一统计信息;C - 单个CPU的统计信息。 d – 整个文件系统Disk合一统计信息;C - 单个磁盘的统计信息。 f – NFS V3 Data i – Inode and File System j – 显示每个CPU的Interrupts触发情况;J - 显示每个中断详细触发情况。 l – Lustre m – 显示整个系统Memory使用情况;M - 按node显示内存使用情况。 n – 显示整个系统的Networks使用情况;N - 分网卡显示网络使用情况。 s – Sockets t – TCP x – Interconnect y – 对系统所有Slabs (系统对象缓存)使用统计信息;Y - 每个slab使用的详细信息。

       collectl --all显示所有子系统的统计信息,包括cpu、终端、内存、磁盘、网络、TCP、socket、文件系统、NFS。

       collectl --top可以代替top命令:

       collectl --vmstat可以代替vmstat命令:

       collectl -c1 -sZ -i:1可以代替ps命令。

       collectl和一些处理分析数据工具(比如colmux、colgui、colplot)结合能提供可视化图形。

       colplot是collectl工具集的一部分,其将collectl收集的数据在浏览器中图形化展示。

       colplot的介绍 在此,相关源码可以再 collectl-utils下载。

       解压下载的colplot之后,sudo ./INSTALL安装colplot。

       安装之后重启apache服务:

       suod systemctl reload apache2 sudo systemctl restart apache2

       在浏览器中输入 .0.0.1/colplot/,即可使用colplot。

       通过Change Dir选择存放经过collectl -P保存的数据,然后设置Plot细节、显示那些子系统、plot大小等等。

       最后Generate Plot查看结果。

金三银四Linux内核面试题(最新版)

       本文详细整理了常见的 Linux 面试题目,旨在为求职者提供学习参考。以下是总结的关键点:

       Linux 是免费和自由传播的 Unix 类似操作系统,广泛用于 Web 项目部署。它具有多用户、多任务、多线程、多 CPU 管理能力,支持 位和 位硬件。Linux 继承了 Unix 的网络为核心设计思想,性能稳定,适合软件开发和部署。

       相比之下,Windows 是民用操作系统,侧重娱乐、影音和上网,提供丰富桌面应用和绚丽效果。Linux 则专注于性能,更适合系统优化和特定任务处理。

       Unix 和 Linux 在内核、系统架构和权限管理上有显著差异,Linux 在内核源代码可自由下载和修改方面具有优势。

       Linux 内核是操作系统的核心,负责管理硬件、软件、内存、文件系统等资源。

       Linux 的体系结构分为内核、Shell、GUI、系统实用程序和应用程序等组件,每个方面都具有强大的功能。

       Linux 的引导加载程序 LILO 用于将 Linux 操作系统加载到内存中。

       BASH 是 Bourne Again Shell 的缩写,作为运行 Linux 系统的默认 Shell,提供更易用的功能。

       CLI 是命令行界面,而 GUI 是图形用户界面,它们提供了不同的交互方式。

       开源软件的优势在于免费分发、社区协作、功能扩展、错误修复和性能优化。

       GNU 项目强调自由软件运动,允许用户自由运行、学习和改进软件,共享给其他人。

       简单 Linux 文件系统采用树形结构,根目录为系统最高层次。

       内核中的 inode 是文件或目录的索引节点,存储文件元数据。

       硬链接和软链接分别用于共享文件的引用和提供文件的软链接路径。

       RAID 是磁盘阵列技术,用于提高数据的可靠性、性能或两者。

       Linux 系统初始化后,需要进行安全配置,包括设置密码、安装安全补丁、设置防火墙等。

       CC 攻击和 DDOS 攻击是针对网站的网络攻击方法,CC 攻击利用多台攻击源同时发起请求,DDOS 则是针对网站流量的攻击。

       网站数据库注入是攻击者通过在数据库查询中插入恶意 SQL 代码,以获取敏感数据的攻击手段。

       Shell 脚本是用于自动化执行多个命令的文本文件。

       选择 Linux 操作系统版本时,应考虑稳定性、安全性和功能需求。

       规划 Linux 主机的步骤包括操作系统安装、软件包管理、系统安全配置和应用部署。

       处理用户反馈的网站访问慢问题,可能需要进行性能优化、网络配置调整、负载均衡设置和资源监控。

       Linux 性能调优方法包括内存管理优化、进程调度策略调整、缓存系统优化和系统参数调优。

       基本命令是 Linux 系统操作的基础,涵盖文件管理、进程控制、网络操作等。

       Linux 内核锁包括互斥锁、信号量、读写锁等,用于保护共享资源。

       用户模式和内核模式分别表示操作系统和应用程序运行的环境。

       申请大块内核内存通常使用 alloc_pages 或 _get_free_pages 函数。

       用户进程间通信主要方式有信号、共享内存、管道、套接字等。

       伙伴系统是一种内存分配策略,用于管理内核内存的分配和回收。

       Linux 虚拟文件系统的关键数据结构包括超级块、索引节点、文件描述符和目录入口。

       文件或设备的操作函数通常保存在 file_operations 数据结构中。

       Linux 中的文件类型包括执行文件、普通文件、目录文件、链接文件和设备文件。

       创建进程的系统调用包括 clone、fork、vfork。

       进程调度的核心数据结构是 runqueue。

       加载和卸载模块使用 insmod 和 rmmod 命令。

       模块程序不能使用可链接的库函数,因为它们运行在内核空间。

       TLB 缓存的是线性地址到物理地址的映射,加速地址转换过程。

       Linux 中的设备类型分为字符设备和块设备,网卡属于例外。

       字符设备驱动程序的关键数据结构是 cdev 描述符,用于描述设备。

       设备驱动程序的关键功能函数包括 open、read、write、llseek、realse 等。

       设备唯一标识通过主设备号和次设备号,使用 dev_t 类型表示。

       系统调用通过软件中断实现,允许用户程序请求内核服务。

       软中断和工作队列用于中断处理,软中断不能睡眠,而工作队列可以。