第3章 进程之间的并发控制和死锁
window.MathJax = { tex: { inlineMath: [['$', '$'], ['\\(', '\\)']], displayMath: [['$$', '$$'], ['\\[', '\\]']] } }; 1.并发进程的特点-对资源的共享引起的互斥关系:进程之间本来是相互独立的,但由于共享资源而产生了关系。-协作完成同一个任务引起的同步关系:一组协作进程要在某些同步点上相互等待发信息后才能继续运行。-进程之间的前序关系:由于进程之间的互斥同步关系,使得进程之间具有了前序关系,这些关系决定了各个进程创建和终止的时间。 -进程之间的关系顺序关系、并行关系、一般关系 2.进程之间的低级通信-进程间的低级通信:通过信号量实现进程之间的互斥和同步关系-进程间通信问题——IPC问题 2.1...
第2章 进程管理
window.MathJax = { tex: { inlineMath: [['$', '$'], ['\\(', '\\)']], displayMath: [['$$', '$$'], ['\\[', '\\]']] } }; 1.进程的描述:PCB、状态2....
第1章 操作系统概论
window.MathJax = { tex: { inlineMath: [['$', '$'], ['\\(', '\\)']], displayMath: [['$$', '$$'], ['\\[', '\\]']] } }; 1.1 操作系统的定义计算机系统的组成:应用程序 -> 实用程序 -> 操作系统 -> 硬件 接口:外层的软件必须以事先约定的方式,调用内层软件或硬件提供的服务。 操作系统的定义: 是由一系列程序模块组成的一个大型的系统管理程序;依据各种管理和调度策略,对计算机的软、硬件资源进行统一的管理和调度,合理地组织计算机的工作流程,以提高资源利用率。 1.2...
DC Former代码框架思路解析
1 DCFormer1.1 config.json本文件是DCFormer 模型的配置文件,定义了模型的各种超参数和设定。 -字段说明**architectures:**模型架构的名称,这里是 “DCFormer”。**auto_map:**自动映射模型和配置类,指定了 AutoConfig 和 AutoModelForCausalLM 对应的配置类和模型类路径。AutoConfig: 指定 DCFormerConfig,这是模型的配置类。**AutoModelForCausalLM:**指定 DCFormer 模型类,这是实际的推理模型。**block_size:**输入序列的最大长度(2048),影响模型在训练或推理时处理的上下文窗口大小。**bos_token_id 和 eos_token_id:**这是模型的特殊标记(begin-of-sequence 和 end-of-sequence),分别对应词汇表中的 1 和 2。**dim:**模型的隐藏层维度,设置为 2560。**head_dim:**每个注意力头的维度,设置为...
Transformer示例代码解读
window.MathJax = { tex: { inlineMath: [['$', '$'], ['\\(', '\\)']], displayMath: [['$$', '$$'], ['\\[', '\\]']] } ...
Transformer文档阅读
window.MathJax = { tex: { inlineMath: [['$', '$'], ['\\(', '\\)']], displayMath: [['$$', '$$'], ['\\[', '\\]']] } }; 1.torch.nn.Transformerclasstorch.nn.Transformer(d_model=512, nhead=8, num_encoder_layers=6, num_decoder_layers=6, dim_feedforward=2048, dropout=0.1, activation=, custom_encoder=None, custom_decoder=None, layer_norm_eps=1e-05, batch_first=False, norm_first=False, bias=True,...
改进具有动态可组合多头注意力的Transformer
window.MathJax = { tex: { inlineMath: [['$', '$'], ['\\(', '\\)']], displayMath: [['$$', '$$'], ['\\[', '\\]']] } ...
改进具有动态可组合多头注意力的Transformer
window.MathJax = { tex: { inlineMath: [['$', '$'], ['\\(', '\\)']], displayMath: [['$$', '$$'], ['\\[', '\\]']] } }; 1.摘要由于其全局注意力机制,Graph Transformer已成为处理图结构数据的新工具。人们普遍认为,全局注意力机制在全连接图中考虑了更宽的接受域,因此许多人相信可以从所有节点中提取有用的信息。本文挑战了这一信念:全局化的特性是否总是有利于Graph Transformer?我们通过提供实证证据和理论分析揭示了Graph...
改进具有动态可组合多头注意力的Transformer
window.MathJax = { tex: { inlineMath: [['$', '$'], ['\\(', '\\)']], displayMath: [['$$', '$$'], ['\\[', '\\]']] } ...
改进具有动态可组合多头注意力的Transformer
window.MathJax = { tex: { inlineMath: [['$', '$'], ['\\(', '\\)']], displayMath: [['$$', '$$'], ['\\[', '\\]']] } ...