一、Approximation algorithm for multiprocessor parallel job scheduling(论文文献综述)
耿欣[1](2020)在《深度学习云平台中GPU调度策略及任务并行化方法研究与应用》文中进行了进一步梳理随着GPU在大规模深度学习场景中的广泛应用,GPU集群中多个深度学习作业的高效执行问题引起了极大的关注。深度学习云平台整合多个GPU计算资源,能够实现大规模深度学习作业的高效处理。然而,基于Kubernetes的深度学习云平台GPU调度方法将GPU作为最小资源分配单位完整分配给容器,会导致GPU资源没有得到充分的利用。同时,多个深度学习任务共同执行时,不合理的任务并行化策略会导致任务间的资源竞争;另一方面,对于需要多个GPU的深度学习训练任务,不合理的任务并行化策略会增加深度学习任务间的通信代价,导致任务在处理过程中执行时间过长。首先,本文深入分析了 Kubernetes容器集群管理平台资源调度策略,提出了一种细粒度的GPU调度优化策略,该策略综合考虑深度学习作业的GPU资源需求和集群中各节点GPU资源的使用情况,避免将资源需求相似的作业调度到同一个节点上,从而实现云平台节点上多维资源的均衡使用。其次,本文提出了一种干扰感知的性能预测模型,该模型可以预测GPU上多个共同执行的深度学习任务之间的资源竞争对其性能的影响,并基于该预测模型提出了一种干扰-拓扑感知的深度学习任务并行化方法,该方法针对深度学习任务的特征,综合考虑任务共同执行时产生的干扰和任务在多个GPU训练时的通信代价,将深度学习任务调度到适当的GPU上。最后,本文使用Docker容器技术实现了大规模深度学习作业镜像,在深度学习云平台中对以上提出的GPU调度优化策略和深度学习任务并行化方法进行了验证,实验结果表明本文提出的方法能够有效地提高平台中GPU资源的利用率和深度学习任务的执行效率。
李宇中[2](2019)在《大阵元超声相控阵多组扫查系统的局部调度建模与优化》文中认为超声相控阵仪器具有空间声场完整覆盖(无须移动探头)、准确度高、抗干扰能力强、全方位实时超声成像等特点,是适用于材料参量定征、材料失效机理分析与寿命预测等科研工作的重要科学仪器。大阵元超声相控阵多组扫查系统可增加扫查灵活性、图像对比度、聚焦法则多样性,实现分布式扫查,但会产生大量不同到达时间、长度、形式的回波信号,需要耗用仪器大量硬件资源处理。为提高资源利用率、实时性,减少仪器硬件开销,避免信号处理混叠冲突,需研究资源复用、数据处理协同调度问题。论文以“大阵元超声相控阵多组扫查系统的局部调度建模与优化”为题,重点研究延时聚焦、信号处理等方面的调度理论方法与实现技巧,并应用于超声相控阵多组扫查仪器研制中。论文研究旨在提高无损检测仪器的实时性、利用率、协同性和扫查方式多样性。论文从大阵元超声相控阵多组扫查系统的多组延时聚焦调度算法、多组同构流水信号处理调度算法、异构分层多DAG(Directed Acyclic Graph)信号处理调度算法等方面,论述国内外研究进展,确定研究内容。论文主要工作包括:(1)大阵元超声相控阵多组扫查系统延时聚焦调度与优化算法研究。为解决延时精度、资源利用率矛盾,提出基于时分复用超声相控阵多组扫查架构,抽象出延时聚焦同等并行机调度问题,对其数学模型和时间复杂度进行分析;研究基于同等并行机问题BF(Bound Fit)算法,提出IBF(Improved Bound Fit)算法,减少全聚焦方法(Total Focus Methos,TFM)帧任务数据调度的最大完成时间;仿真实验对比SPT(Shortest Processing Time)、BF、IBF算法,大阵元超声相控阵多组扫查延时聚焦调度架构和IBF算法使最大完成时间缩短8.7621.48%,硬件资源减少3040%,提升最高运行频率6.72%11.22%;现场可编程门阵列(Field Programmable Gate Array,FPGA)仿真实验表明,相比于LIST算法节约帧任务时间12.26%。(2)大阵元超声相控阵多组扫查系统同构流水信号处理调度与优化算法研究。分析超声相控阵延时聚焦和扫查时间,推导出帧任务信号开始时间;提出基于时分复用超声相控阵多组扫查信号处理架构,抽象出分布流水线车间调度问题,研究其带开始时间的同构简化模型,即带开始时间车间任务调度问题,并根据该问题提出开始与执行时间合并近邻算法(The sum of start time and processing time adjacent,SSPA);通过仿真算法实验,最大完成时间提高4.0036.84%,资源利用率提高1.0121.67%;虚拟逻辑分析仪实验,与FCFS、SPT算法比较,SSPA算法使最大完成时间缩短11%,资源利用率提高9.72%,并通过架构增加阵元分组灵活性。(3)大阵元超声相控阵多组扫查系统异构分层多DAG信号处理调度与优化算法研究。为增加分布式扫查方式的多样性,提出片上总线异构多组扫查信号处理架构;基于该架构,针对多组扫查超声相控阵系统中不同分组扫查方式产生的不同信号处理工作流,与其在特定功能信号处理模块中的分层处理,抽象出一种异构分层多DAG工作流问题(Heterogeneous Hierarchical Multi DAG Problem,HHMDP)。基于改进的异构最早完成时间(HEFT)算法,提出一种具有前任指针调整的异构前任最早完成时间(Heterogeneous Precedent Earlist Finish Time,HPEFT)算法。与SPT、Round-Robin、HEFT(Heterogeneous Earlist Finish Time)、RHEFT(Reverse Heterogeneous Earlist Finish Time)进行仿真实验比较,采用最大完成时间、空闲时隙比RITS(Idle Time Slot Ratio)、截止期相对裕量RLD(Relative Laxity with Deadline)和错失截止期率MDR(Missing Deadline Rate)等指标,HPEFT算法最大完成时间缩短3.8757.68%,RITS最大降低4.326.82%,RLD增加2.278.58%,在严重负荷条件下MDR降低25%58%;FPGA前仿真验证表明,希尔伯特变换模块调度帧率相比于HEFT算法增加3.56%。(4)大阵元超声相控阵多组扫查仪器实验验证与分析。基于自行设计的超声相控阵传输测速平台,在给边界条件下,多组延时聚焦采用LIST算法、IBF算法,多组同构流水信号处理采用SPT算法、SPA算法,异构分层多DAG信号处理采用HEFT、HPEFT算法比较,总体帧率提高2.959.36%;将新机型用于成像,对比原机型有更窄的盲区,更好的穿透力和分辨力;阵元数量成像对比实验得到64阵元A扫成像对比度是32阵元2.30倍;64阵元TFM扫查相比于32阵元最大信号强度提高22.09%,得出阵元数量越高,信噪比越好;比较多组扫查成像,可以看出成像效果与单组扫查无明显差异,并且多组扫查能保证实时帧率,从而验证多组扫查调度的可行性和有效性。
张晓达[3](2019)在《面向大数据分析系统的资源调度研究》文中认为当前的大数据分析技术得以成功落地应用的原因之一是基于大规模集群的平台式软件和计算框架的出现。由于数据量的增长速度已远远大于硬件能力的增长速度,故如何将大规模分布式共享集群中的资源合理地分配给上层的多个计算应用(作业)成为了十分重要的研究问题。尽管已有大量研究,我们发现大部分已有工作对作业特性的假设太强以至于限制了其适用性,且对执行环境的限制和动态特性考虑不周:首先,由于作业在实际执行中的不可预知的动态特性,使得作业展现的特性与其先验的特性不符,导致了基于作业完全先验知识的调度器失效;其次,越来越多的国家和地区正在制定规则限制计算资源的跨域控制,使得很多集中式的架构难以工作;此外,执行环境(如广域网带宽)的变化的事实也排除了一些基于资源量固定不变的方法。本文基于上述理解,分别对单域大数据分析系统和跨域数据分析系统两个场景中的资源调度问题进行了较为深入的研究,提出了相应的任务调度和作业调度算法。主要贡献可概括如下:(1)针对在线的单域数据分析系统中的资源调度问题,提出了基于作业半先验知识的任务调度算法。为解决作业执行过程中不可预知的特性的难题,引入“半先验知识”的概念,进而,我们基于半先验知识设计了相应的任务调度算法COBRA,其工作在每个作业中,为作业管理资源和分配任务。在管理资源时,依据已占有的资源的利用率反馈和当前等待的任务信息,采取不同的决策:为每个作业或申请更多的资源,或维持当前的申请,或主动释放一些资源;在分配任务时,将任务的执行时间考虑在内,尽最大努力满足任务的数据本地性需求。在理论上,我们证明了即使仅有部分先验知识,若每个作业均应用COBRA作为任务调度器,当与集群的公平作业调度器配合使用时,平均作业响应时间和makespan均是O(1)-competitive。我们将COBRA实现在Spark on YARN系统中,并将其实际部署在集群中。经过集群的多种类型作业实验和大规模基于Google trace的模拟实验验证了 COBRA的对作业性能的提升。(2)针对在线的单域数据分析系统中的资源调度问题,为进一步弱化假设,提出了基于累计工作量的无先验知识的作业调度算法。我们分析了来自于实际生产集群中的作业数据,观察到作业占用的资源服从重尾分布。通过扩展已有算法,定义了基于主资源的“累计运行工作量”的概念,其是作业原始工作量的良好的预测值。提出的集群作业调度算法CRWScheduler便基于累计运行工作量进行调度。通过使用权重多队列架构,CRWScheduler将基于累计运行工作量的启发式算法(有利于重尾分布)和先进先出(FIFO)思想(有利于轻尾分布)组合起来。每个作业基于累计运行工作量会被分配到特定队列中,累计运行工作量较小的队列会被设置较低的权重;而在分配资源时,CRWScheduler同时考虑作业当前占用资源情况和权重队列,并保证每个队列先进先出。基于Apache Hadoop YARN实现了CRWScheduler,并将系统部署在28个节点的集群中。通过全面的工作负载测试,验证了CRWScheduler对已有系统实现的性能提升。(3)针对跨域大数据分析的需求,提出了相应的分布式大数据分析系统架构,并设计了有效的任务调度算法。我们分析了跨域场景带来的独特的挑战:数据的法规限制、广域网带宽限制和高额的系统部署费用。为此,设计了跨域架构HOUTU,其由多个自治的系统构成,其中每个系统都在单独的数据中心运行,满足了法规限制。HOUTU为每个作业在每个数据中心维护一个任务管理器,这些互为副本的任务管理器既能单独工作以管理其所在区域的资源,又能相互协调分配任务。同时,这样做为实现作业级别的容错和部署Spot实例提供了可能。在分配任务时,允许同属一个作业的不同任务调度器之间能够相互“偷取”,这样保证了在某些数据中心资源紧张的情况下,仍能保证作业有效地完成。在理论上证明了提出的方法能够保证makespan是O(1)-competitive。我们将系统部署在阿里云的四个数据中心的20台云服务器(大部分采用更便宜的Spot实例)上,经过多类型作业负载实验,相比于原有调度器,HOUTU能够提升30%的作业性能,而花费的金额仅是原来的四分之一。
王金[4](2019)在《基于深度强化学习的大数据平台作业调度算法与仿真实现》文中研究表明伴随着时代科技的进步与发展,人们所使用的个人主机,高性能大型主机或者其他多虚拟机分布式商务集群高速发展,高水平的硬件和软件功能为我们的工作和生活创造了巨大的机会。但与此同时,我们现在利用资源所产生的信息的量级正在爆炸性的增加,例如每天的预报,每小时或每分钟的天气情况,以及我们春季的火车票预定等等情况。允许大量资源分配的最简单,最直接的方法就是资源量的加大或增加,但它与巨大的成本相关联。采用良好的资源策略和算法就显得尤为重要了。本论文旨在研究一个良好的通用的大数据平台作业调度算法。同时将目标放在具有多资源池平台和多虚拟机集群上进行研究,本论文主要选择在自定义实现的仿真系统上进行训练和测试,并在保证了符合真实环境需求的情况下使得本论文的实验具有良好的可移植性,可根据相应修改适用于各个大数据平台中心,同时它还利用各种可视化工具将实验结果清晰的展现了出来。本论文的主要内容如下:首先实现一个基于深度强化学习的作业调度算法,该算法可以良好的应对一个多资源池平台的在线和离线作业调度需求,并具有不错的效果,然后再多机多资源池平台进行了推广,引入了强化学习的思想。最后详细介绍了整个作业调度仿真系统,实现了作业生成,作业执行,算法调用等多个模块。本论文合理使用深度学习方法并结合强化学习对作业调度领域进行了研究,在使用了一些成熟的开源框架的情况下自定义并调整了适合深度强化学习使用的网络结构,并对整个运算过程进行了把控和修改。本论文同时设计并独立实现了整个大数据平台作业调度的仿真系统和调度算法,并且还在更复杂的多虚拟机多资源环境中进行了延伸和实现。相对于已有算法,平均增加处理速度或者减少平均等待时间30%左右。为今后移植真实大数据平台打下了良好的基础。
谢兰[5](2019)在《港口泊位和拖轮的多目标协同调度优化研究》文中研究指明伴随全球一体化趋势和国内经济的快速发展,港口正成为国际物流系统的重要环节,能够在在世界范围内吸纳人流、物流、资金流、信息流等各种生产要素。港口的发展不仅能带动沿海城市的经济,还会促进经济链条伸向腹地,带动整片区域的繁荣。由于航运市场的不断开拓,到港船舶日益增多,且呈现大型化的趋势,进出港口都需要拖轮为其引航。而泊位和拖轮都属于港口稀缺资源,如何合理调配有限的泊位和拖轮资源使到达港口的船舶能尽快地被服务,同时节约作业成本,是港方提高竞争力急需解决的重要问题。本文是将泊位和拖轮联合起来调度,所有到港船舶停在锚地等待,当有合适的泊位空闲时,拖轮才将船舶经由航道拖拽至泊位上,当船舶在泊位上装卸完之后,拖轮再将船舶经由航道拖拽离开港口。避免在没有泊位的情况下拖轮将船舶引入港内,或者是船舶装卸完成之后由于没有拖轮将其拖拽离开导致泊位继续被占用的情况。所做的主要工作如下:首先,建立协同调度问题的数学模型。描述船舶在港作业流程,分析泊位和拖轮协同调度作业的特点;假设所有到港船舶都需要进行靠泊、离泊作业,部分船舶还需要移泊作业,并考虑了单航道的影响因素以及拖轮适时返回基地的决策,使模型更为贴近事实;最后合理设置参数,以所有船舶总在港时间最小以及泊位和拖轮的总作业成本最小为目标函数,根据模型的特点和各个参数的物理意义及其相互关系得出了协同调度数学模型必须满足的约束条件。其次,设计算法求解模型。通过对调度算法和多目标优化算法的特点进行分析比较,选择了NSGA-Ⅱ(一种带精英策略的快速非支配排序的遗传算法)来解决本文的多目标协同调度问题,并针对算法存在的缺点做出改进。随后设计合理的编码、解码方法和交叉、变异方式,能够有效避免不合法解的产生。最后,选取算例验证模型及算法的有效性,设计因子试验分析模型特性。通过人工经验和随机生成的方式,构建泊位和拖轮协同调度的算例,优选模型中的相关参数值,使用MATLAB语言编程求解。通过对航道条件、拖轮数量、泊位数量等因素进行实验,分析其对船舶总在港时间及泊位和拖轮总作业成本的影响,所得结果可为港口拖轮和泊位的调度提供决策参考。
李莉[6](2018)在《异步并发的多密码算法运算关键技术研究》文中指出随着云计算应用的日益推广和天地一体化网络的推进,各种应用系统的用户数和业务量海量增长,使其计算和存储面临着大数据处理的挑战,同时也对业务和数据的安全提出了迫切需求。高性能综合密码系统作为为天地一体化网络、云计算等综合信息网络提供密码服务的关键基础设施,其能够提供的密码计算能力影响着整个网络系统的安全性能。根据综合信息网络“信道开放、资源动态变化、实体类型多元、拓扑复杂”的特点,密码处理系统面临着业务随机多样、安全需求多元、密码算法多元、网络资源动态变化、链路信道特性各异,以及密码服务能力不断增长的功能和性能需求。本文针对千万量级在线并发密码作业在高性能综合密码系统上的运算需求,深入研究了异步并发多密码算法运算的关键技术,从系统架构和调度算法设计两个方面,解决多算法/多密钥/多数据流随机交叉加解密问题。利用负载均衡与多线程技术,解决密码服务IO排队造成的吞吐率瓶颈问题,实现计算资源的动态调配,解决静态计算资源和动态密码服务需求之间的矛盾,提高密码并发服务能力和高吞吐率的密码计算能力。主要研究工作和成果如下:(1)研究密码算法的运算特点,提出一种支持混合交叉业务高并发处理的异构多密码算法核并行处理架构FSPP(Four-Stage Parallel Processing),单芯片可支持多算法、多密钥、多IP核的高并发处理功能。此架构将数据的处理分为分转、预处理、运算及同步重组四个阶段,通过基于数据标识的分级处理机制实现作业包与算法IP核间的映射与数据处理,增设KSM存储器和KSM存取控制逻辑用于交叉访问下关联作业包中间状态的存取,保证混合工作模式下算法运算状态的全程跟踪。通过同步队列syn-queue和同步重组模块syn,保证交叉访问下输入、输出数据间的同步。(2)针对高性能综合信息网络中海量业务安全需求的特点,研究数据流调度算法,结合上述提出的FSPP异构多核处理架构,提出了具有关联判断控制的基于业务标识的分层硬件调度方法HHS-ACDID,通过两级调度完成数据流作业包在算法簇和处理节点上的分配及执行。考虑到算法核的异构性,为提高多密码算法并行处理的效率,以负载均衡为调度目标,在HHS-ACDID基础上,综合考虑算法处理节点的存储容量和处理速度,设计了一种同时支持非关联任务和关联任务的负载均衡作业调度算法,提高了多业务异步并发的密码处理吞吐率。(3)研究多任务并发同步技术,针对交叉业务流的数据处理场合,提出一种基于索引表的多密码算法多数据流同步处理方案。通过设计专门的低资源占用率的硬件同步电路,采用正在处理索引表、阻塞索引表、已处理索引表,对进入和流出算法核的作业包业务索引号进行记录,实现作业包的流向控制,保证处理单元工作的单一性和连续性,避免软同步方案编程复杂和可靠性低的问题,加速了密码业务的处理速度。在上述研究和设计的基础之上,在Xilinx K7系列的XC7K325t FPGA上对方案进行了原型实现,通过随机交叉业务流密码运算在实际多核平台上的测试,验证了本文提出的异步并发多密码算法运算系统架构和调度算法的正确性及有效性,满足了高性能综合密码系统的功能和性能需求。
王志佳[7](2018)在《面向航天器仿真分析的高性能计算应用模式研究》文中提出仿真计算资源成本的投入逐渐成为企业成本投入的重中之重,其仅次于人力资源成本投入。虽然购置了高性能的计算设备,但却无法保障设备的充分利用,使得企业竞争能力明显不足。本文以航天器制造企业为项目背景,结合资源调度系统LSF,以构建高性能计算环境,优化作业调度算法,提升系统资源利用率为出发点,研究如何在最小化任务集时间跨度的同时兼顾计算资源负载均衡的问题。作业调度算法的选取是作业调度的关键,Min-Min算法作为经典的启发式调度算法,常被用作标准算法来评估其他算法,本文基于Min-Min算法开展了进一步的研究。首先,对Min-Min算法进行了较为详细的研究和分析。它的基本思想是优先执行具有最小的最早完成时间的计算任务,从而实现单个任务的执行时间最短,其本质上是一种贪心算法。但由于贪心算法的缺陷,使得当前做出的选择有可能是局部最优解,算法为了实现最小化最小完成时间的目标,有时需要将任务分配到具有较长执行时间的计算节点上,造成总体的时间跨度增加。同时,该算法优先将任务映射给计算能力最强的计算资源,造成计算能力强的计算资源负载过重,计算能力弱的计算资源较为空闲,整体计算资源负载不均,导致资源利用率较低。其次,针对上述不足,本文对Min-Min算法进行了改进,提出一种基于标准差的最小最早完成时间算法(SDMM,Standard Deviation Min-Min)。在制造行业,集群系统往往分阶段建设,因此计算环境具有一定的差异性和异构性,任务在不同处理机的执行时间具有较大差异。本文采用任务执行时间标准差来衡量不同处理机间的差异以及任务对于负载均衡的影响度。算法在综合考量最小完成时间和任务执行时间标准差的基础上进行调度,兼顾了高吞吐率和负载均衡,更适应生产环境的异构性。最后,通过GridSim模拟器对Min-Min算法、Dpri-Min-Min算法、Proposed算法和SDMM算法进行了模拟对比分析,结果表明SDMM算法相比其他三种算法有一定的提高,保留了原有算法的高性能,同时有效的实现了负载均衡,提高了许可证资源利用率,满足航天器仿真分析过程中对于成本控制和资源精益化利用的实际需求。因此,面向航天器仿真分析的高性能应用模式研究、调度算法研究,对于航空、航天等大型制造企业,具有一定的借鉴意义。
杨明晨[8](2017)在《负载均衡的Hadoop平台调度算法研究》文中研究说明近年来,随着计算机信息技术的不断发展,数据信息在各个行业已经呈爆炸式增长。据全球互联网中心数据,截止到2020年底,全球数据量预计将达到35ZB。就像人们说的,大数据时代正式到来了。在处理海量数据的关键时刻,云计算技术随之产生,随着技术不断发展,处理大数据的云计算技术已被广泛应用于公司和企业,例如Google、Microsoft、阿里巴巴,这些公司的云计算系统大多基于一个分布式处理软件框架,即hadoop平台。Hadoop是一个安全、可靠、可并行化运行的开放式源代码框架,并且可实现对应用开发者的透明处理,用户并不需要了解hadoop底层实现细节。但毕竟云计算技术研究时间较短,技术研究还不太深入,云计算仍存在一些挑战,例如安全性,性能,资源管理,可靠性等。资源管理问题与任务调度有关,云计算任务调度是指将用户任务分配给可用资源,以改善任务的执行,提高资源利用率。因此通过改进Hadoop平台任务调度方法可以提高Hadoop平台资源利用率和整体性能。作业调度技术是hadoop平台的核心技术,它主要负责将系统中空闲资源分配给各个作业,以及控制作业执行的顺序,它对于hadoop平台计算资源分配及整体性能起着至关重要的作用。因此我们对于作业调度算法的研究具有重要意义。云计算资源的分配是基于SLA服务的,任务执行成本是任务调度算法的主要性能参数之一。另外,任务调度算法被认为是一个复杂的过程,因为它必须充分利用可用资源来执行大量任务。这就需要开发任务调度算法时应考虑许多参数,从用户的角度来看任务编译时间,成本和响应时间非常重要。而从云提供商的角度来看,资源利用率,容错能力和功耗则很重要。本文首先介绍了hadoop平台的背景、结构及hadoop核心技术;然后对单队列调度(FIFO)、容量调度(Capacity)、公平调度(Fair)三种现有的调度算法作了详尽介绍,并在此基础上对如何改进算法的不足、提高系统整体性能作了介绍,最后提出基于遗传算法(GA)的改进任务调度策略用于分配和执行应用程序的任务,以减少任务完成时间,降低执行成本,并最大限度地提高资源利用率。提出的算法的性能已经使用Cloud Sim工具包进行了评估。
王静莲[9](2015)在《面向异构计算的能效感知调度研究》文中指出以高性能集群为代表的大规模计算系统,可具高吞吐信息服务和海量数据处理能力,无疑是”互联网+”时代覆盖国家政治、社会经济以及人们生活多领域的强有力生产工具。与此同时,信息技术(information communication technology, ICT)产业能耗占据世界能源消耗总量的比例在逐年攀升。绿色计算因为与环境保护和人类可持续发展的密切关联引起越来越多社会关注。实际上,高性能领域的能效管理也是当前数据和计算中心运行的关键问题。作为并行与分布式系统资源管理的核心,任务调度为了优化某个目标函数,其在一组具有任意特性的处理机中对任务集合进行排序和资源分配;而传统调度通常多以高性能为目标。前人的研究已经证明,即使在简化模型的情形下,绝大多数的并行任务调度问题是NP完全问题。因此,融合能效感知调度,结合硬件节能技术(例如,动态电压频率调节(dynamic voltage frequency scaling, DVFS))和实时调度的软件方法,将能效作为服务质量(quality of services, QoS)评价指标之一,是由高性能向高效能目标转变以顺应绿色计算可持续发展的有效途径,也是当前计算机科学与应用中的研究重点和难点。本文将对面向海量数据密集应用的融合能效感知异构调度模型及算法展开研究,以适应大规模计算系统低能耗、高扩展和负载均衡等服务质量需求。本文选题来源于国家高技术研究发展计划(863计划)”面向公共计算服务的网格平台研究及应用(No.2006AA01A113)”、”真实感动漫渲染系统研究与应用(No.2012AA01A306) "以及国家自然科学基金项目”面向数据密集应用的功耗感知调度研究(No.61070017)”。本课题属于高性能领域异构系统、实时动态调度、分布式人工智能和绿色可持续计算技术四者结合的交叉课题,为融合能效感知异构调度研究探索新的道路,奠定相应的理论和技术基础。随着ICT能耗持续上升、云计算商业模式日益普及和系统规模的不断扩大,本课题的研究具有重大的理论和应用价值。●本文在理论研究上,一方面通过有效量化异构系统实际DVFS处理器多维变尺度参数来建立融合能效感知的多目标优化调度模型;另一方面基于元启发式经典或新兴的代表算法,鉴于调度问题的NP完全性、环境多样性、应用新需求以及多QoS指标的折中性等,采用多学科交叉研究技术路线,提出两种新颖多目标优化调度算法。这两方面相辅相成,融为一体。●从技术上解决了调度技术面向不同环境目标的实施条件界定、资源或服务选择及调整标准、调度指标(时间、能效)的实时变化描述等问题。简言之,本文的创新点主要包括以下四个方面。1.本文提出融合能效感知的异构调度模型。旨在探索软、硬件节能技术结合带来的高效能计算特性,如何由传统同构系统延伸到异构系统,由独立任务模型发展到依赖任务模型,以及由理想DVFS处理器模型扩展到实际DVFS处理器多维变尺度模型,本文从并行实时任务的DAG (directed acyclic graph)构建出发,兼顾计算资源的异构性定义,数学表述含能耗预算在内多个计算服务质量指标,进而建立面向协同异构计算且易于复用的多目标优化调度模型;并用理论分析和实验结果证明模型在满足并行依赖任务集最优可调度性的前提下可获得更多能耗节余,尤其在高负载情况下节能效果更明显。2.本文提出支持图深度值、耦合强度排序的人工免疫调度算法。针对带有强约束且缺乏领域知识的多目标异构调度优化问题,为有效克服现有免疫算法存在的局部搜索能力差、早熟收敛、随机漫游以及最终解精度不高等主要缺陷,论文从抗体编解码技术及其亲和度多目标评估方法两方面入手,详细讨论了抗体”基因”亲和度细粒度评估、模因数学表述、基因-模因自组织协同进化模拟以及进化反馈深度模型的相关免疫学及认知心理学机理;同时,面向新近发展的混合多核CPU+GPU的高性能集群体系结构,实现粗粒度模型和主从模型相结合的算法混合并行设计。理论分析和实验结果表明了算法的有效性和高效性。3.本文提出基于离散群体智能的调度优化算法。在分析和比较已有算法的基础上,根据异构调度优化问题需要,研究支持DAG深度值、耦合强度排序的粒子向量表示方法;并基于数学知识、物理动力学和分布式人工智能等理论,提出粒子群进化的线性连续模型;设计实现自适应学习群体精英智能的局部搜索策略,以及对算法性能进行理论和实验分析。其特点是通过DAG的深度值、耦合强度排序,粒子进化的线性连续建模增强群体智能算法的全局搜索异构调度问题候选解空间能力以获得更优的Pareto近似解,以及采用自适应学习群体精英智能等策略以保持Pareto解集的良好分布性与多样性。4.本文提出相关实验评测系统和仿真方法。鉴于异构调度研究的特殊性,对本文提出调度模型和两种算法实施相关测试。仿真实验数据采用兼具不同异构性和一致性的新的大实例集,规模远大于经典文献的十二个问题实例。重点突破解决了调度技术面向不同环境目标的实施条件界定、资源或服务选择及调整标准、调度指标(时间、能效)的实时变化描述等问题。实验不仅表明新调度器的高效性及可扩展性,而且也强调了新模型对调度能效的影响,且在可实施的复杂度范围内。本文的理论分析、仿真实验和评价结果表明,本课题的研究成果既可有效降低海量数据密集应用执行过程中的能耗,还能保证系统提供的公共计算服务满足用户的多目标要求;上述模型和算法能够有效解决异构实时调度系统的能效管理问题。
吴文波[10](2015)在《并行分布实时仿真平台任务调度技术研究》文中研究指明随着仿真应用的不断深入,仿真规模正在逐步扩大,仿真模型越来越复杂,其对计算资源的要求也越来越高。特别是在实时仿真应用中,由于对时间约束的要求非常苛刻,其对处理平台的计算性能提出了更高的要求。而一些大规模系统内部往往存在一些并行因素,若能直接用分布、并行方法实现这部分的仿真当然就更符合系统的实际特征了,因此并行分布仿真逐渐成为实时仿真研究的焦点。然而,并行分布仿真有许多尚待解决的问题,其中任务调度是影响仿真系统运行性能和效率的关键因素之一,不恰当的调度不仅不会带来性能的提升,甚至会带来比串行仿真更差的结果。论文围绕并行分布实时仿真中的任务调度问题,从仿真任务分配和周期仿真任务集可调度性分析两方面展开研究。本文在对仿真任务调度策略进行了一般性研究的基础上,首先分析了实时仿真的可调度性问题。为保证并行分布实时仿真的实时性要求,需要在系统设计阶段就对仿真任务集进行可调度性分析。一般并行分布实时仿真中任务集都是周期性的,论文研究了周期仿真任务集在同构多处理器平台下采用固定作业优先级调度算法的可调度性分析。由于传统可调度性分析采用的理论方法不具备完备性,论文采用了模拟运行的方式进行可调度性分析。根据周期仿真任务集特点,可调度性分析主要是求可调度区间。论文首先给出一个基本可调度区间,并归纳出求解可调度区间的基本思路;然后从仿真任务执行状态界限出发,给出了两个改进的可调度区间,并将这两个改进结果合并得到最终结果,保证所求的可调度区间范围达到最小。然后针对分布式实时仿真平台、多核实时仿真平台和异构多处理器实时仿真平台三个典型仿真应用平台,依次展开研究:(1)对于使用最广泛的分布式仿真平台,平台的复杂性将大大增加系统失效的可能性,因此可靠性是其一个关键性需求,对运行实时仿真应用的分布式仿真平台尤为重要。使用任务分配的方法来提高分布式实时仿真平台的可靠性,不需要增加额外的软硬件资源,具备更广泛的适用性。论文通过对系统可靠性及约束条件分析,将仿真任务分配问题建模为组合优化问题,并提出了一个混沌自适应模拟退火算法XASA用以求解该问题。XASA算法首先在混沌优化算法的基础上进行解空间的混沌遍历,得到一个局部最优集,然后采用自适应策略对模拟退火算法进行改进,在局部最优集的基础上进一步寻优。(2)多核处理器集群作为当前最热门的处理平台,在并行分布实时仿真中逐渐成为主流。相比较于传统的并行分布式仿真平台,多核集群的特点是节点内通信代价不可忽略,针对这一特点,论文着重分析了节点内通信对仿真任务分配问题带来的影响。通过分析单个节点的节点内/节点间通信代价,建立关于一致代价仿真任务分配问题的最小费用流模型,进而推广到一般意义下的多核处理器集群仿真任务分配问题,并建立广义最小费用流模型。通过分析通信代价凹函数的特点将凹费用网络流转换为带固定费用网络流问题之后,设计遗传模拟退火组合算法求解该问题。(3)仿真的实时性因任务的不同而存在很大差异,因此针对不同实时性要求的仿真任务需要不同类型的处理器来处理,而同一个仿真任务在不同类型的处理器上执行结果也不尽相同。论文通过分析异构多处理器平台特性,选择仿真任务在同类处理器内部自由迁移的内迁移问题作为研究对象,将异构多处理器仿真任务调度问题转化为内迁移仿真任务分配问题。在对该问题建模为整数线性规划问题的基础上,松弛为线性规划问题,将因松弛产生的未完整分配的仿真任务称为“散碎仿真任务”,论文证明了在包含有t类处理器的异构多处理器环境下,最多只有t-1个散碎仿真任务。然后根据散碎仿真任务建立二分图模型,提出通过调整边权值的方法消除图中的环,最后设计算法将散碎仿真任务完整分配到某个处理器类上。最后,本文以一个采用分布实时仿真平台的空战任务仿真系统为背景,对仿真任务分配算法进行了验证分析,仿真试验结果表明,任务分配方法能够提高仿真系统的可靠性,而XASA算法能有效克服传统模拟退火算法和混沌优化算法收敛速度慢的问题,且不失解质量。
二、Approximation algorithm for multiprocessor parallel job scheduling(论文开题报告)
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
三、Approximation algorithm for multiprocessor parallel job scheduling(论文提纲范文)
(1)深度学习云平台中GPU调度策略及任务并行化方法研究与应用(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 研究背景和意义 |
1.2 国内外研究现状 |
1.3 论文主要研究内容 |
1.4 论文组织结构 |
第二章 相关技术介绍 |
2.1 Docker与容器云平台 |
2.1.1 Docker简介 |
2.1.2 容器云平台 |
2.2 Kubernetes容器集群管理技术 |
2.2.1 Kubernetes基本概念 |
2.2.2 Kubernetes架构和组件 |
2.3 深度学习相关技术 |
2.3.1 深度学习 |
2.3.2 深度学习云平台 |
2.4 本章小结 |
第三章 深度学习云平台中GPU调度优化策略研究与设计 |
3.1 云平台总体架构设计 |
3.2 Kubernetes云平台调度策略研究 |
3.2.1 Kubernetes调度策略概述 |
3.2.2 Kubernetes调度流程分析 |
3.2.3 Kubernetes默认调度算法研究 |
3.3 Kubernetes云平台GPU调度优化策略设计 |
3.3.1 算法描述 |
3.3.2 资源模型改进 |
3.3.3 扩展过滤策略 |
3.3.4 扩展打分策略 |
3.4 扩展调度组件实现原理 |
3.5 本章小结 |
第四章 干扰-拓扑感知的深度学习任务并行化方法 |
4.1 任务特性分析和模型描述 |
4.1.1 任务特性分析 |
4.1.2 任务模型描述 |
4.2 任务并行化问题描述 |
4.3 干扰感知的性能预测模型 |
4.4 干扰-拓扑感知深度学习任务并行化方法 |
4.4.1 粒子群优化算法 |
4.4.2 干扰等级目标函数 |
4.4.3 通信代价等级目标函数 |
4.4.4 基于粒子群算法的多目标优化 |
4.5 本章小结 |
第五章 平台实现与测试分析 |
5.1 平台环境配置 |
5.1.1 硬件环境 |
5.1.2 软件环境 |
5.1.3 深度学习作业实现 |
5.2 云平台扩展调度组件实现 |
5.3 深度学习云平台功能测试 |
5.4 性能测试和结果验证 |
5.4.1 云平台GPU调度优化策略效果验证 |
5.4.2 干扰感知性能预测模型收敛性 |
5.4.3 干扰-拓扑感知任务并行化方法效果验证 |
5.5 本章小结 |
第六章 总结与展望 |
6.1 总结 |
6.2 展望 |
参考文献 |
致谢 |
攻读硕士学位期间的主要研究成果 |
(2)大阵元超声相控阵多组扫查系统的局部调度建模与优化(论文提纲范文)
摘要 |
Abstract |
主要符号表 |
第一章 绪论 |
1.1 论文研究背景及研究意义 |
1.2 大阵元超声相控阵多组扫查系统概述 |
1.2.1 超声相控阵系统通用架构与信号处理流程 |
1.2.2 大阵元超声相控阵多组扫查系统提出 |
1.3 相关研究内容国内外进展 |
1.3.1 多组延时聚焦架构与调度算法 |
1.3.2 多组同构流水信号处理架构与调度算法 |
1.3.3 异构信号处理架构及调度算法 |
1.4 论文研究内容以及章节安排 |
第二章 大阵元超声相控阵多组扫查系统延时聚焦调度 |
2.1 引言 |
2.2 LE-UPA-MGSS延时聚焦调度构架设计 |
2.2.1 LE-UPA-MGSS多组扫查系统延时聚焦调度架构 |
2.2.2 LE-UPA-MGSS4组2 细延时调度模型图示例 |
2.3 大阵元超声相控阵多组扫查系统延时调度建模与求解 |
2.3.1 LE-UPA-MGSS细延时模块重要参数定义 |
2.3.2 LE-UPA-MGSS细延时模块调度原则与数学模型 |
2.3.3 LE-UPA-MGSS细延时模块调度模型的IBF求解 |
2.4 大阵元超声相控阵多组扫查系统延时聚焦调度算法仿真实验 |
2.4.1 LE-UPA-MGSS延时聚焦IBF算法调度性能仿真实验 |
2.4.2 LE-UPA-MGSS延时聚焦调度资源帧率频率实验 |
2.5 本章小结 |
第三章 大阵元超声相控阵多组扫查系统同构流水信号处理调度 |
3.1 引言 |
3.2 LE-UPA-MGSS多组扫查同构流水信号处理调度架构设计 |
3.2.1 LE-UPA-MGSS同构流水信号处理调度系统框图 |
3.2.2 LE-UPA-MGSS系统同构流水信号处理模块 |
3.2.3 LE-UPA-MGSS4组2 同构流水信号处理调度器示例 |
3.3 LE-UPA-MGSS同构流水信号处理调度建模与求解 |
3.3.1 LE-UPA-MGSS同构流水信号处理模块重要参数定义 |
3.3.2 LE-UPA-MGSS同构流水信号处理模块调度原则与数学模型 |
3.3.3 LE-UPA-MGSS同构流水信号处理模块的SSPA求解 |
3.4 LE-UPA-MGSS同构流水信号处理SSPA调度算法仿真实验 |
3.4.1 LE-UPA-MGSS同构流水信号处理SSPA调度算法性能仿真实验 |
3.4.2 LE-UPA-MGSS同构流水信号处理SSPA任务调度平台验证实验 |
3.5 本章小结 |
第四章 大阵元超声相控阵多组扫查系统异构分层多DAG信号处理调度 |
4.1 引言 |
4.2 LE-UPA-MGSS异构分层多DAG信号处理调度架构设计 |
4.2.1 LE-UPA-MGSS异构分层多DAG信号处理调度架构 |
4.2.2 LE-UPA-MGSS异构分层多DAG信号处理调度架构示例 |
4.3 LE-UPA-MGSS异构分层多DAG信号处理调度建模与求解 |
4.3.1 LE-UPA-MGSS异构分层多DAG信号处理调度参数 |
4.3.2 LE-UPA-MGSS异构分层多DAG信号处理调度数学模型 |
4.3.3 LE-UPA-MGSS异构分层多DAG信号处理调度HPEFT算法求解 |
4.4 LE-UPA-MGSS异构分层多DAG信号处理调度算法实验 |
4.4.1 LE-UPA-MGSS异构分层多DAG信号处理HPEFT调度仿真实验 |
4.4.2 LE-UPA-MGSS异构分层多DAG HPEFT希尔伯特变换调度实验 |
4.5 本章小结 |
第五章 大阵元超声相控阵多组扫查系统实验与分析 |
5.1 引言 |
5.2 LE-UPA-MGSS延时聚焦调度效果实验 |
5.2.1 LE-UPA-MGSS延时聚焦调度架构设计 |
5.2.2 LE-UPA-MGSS延时聚焦调度效果验证 |
5.3 LE-UPA-MGSS同构流水信号处理调度效果实验 |
5.3.1 LE-UPA-MGSS同构流水信号处理调度架构设计 |
5.3.2 LE-UPA-MGSS同构流水信号处理调度效果验证 |
5.4 LE-UPA-MGSS异构分层多DAG信号处理调度效果实验 |
5.4.1 LE-UPA-MGSS异构分层多DAG信号处理调度架构设计 |
5.4.2 LE-UPA-MGSS异构分层多DAG信号处理调度效果验证 |
5.5 本章小结 |
结论与展望 |
参考文献 |
攻读博士学位期间取得的研究成果 |
致谢 |
附件 |
(3)面向大数据分析系统的资源调度研究(论文提纲范文)
摘要 |
Abstract |
第一章 绪论 |
1.1 选题背景 |
1.1.1 大数据分析系统 |
1.1.2 当前大数据分析系统面临的挑战 |
1.2 面向大数据分析系统的资源调度 |
1.2.1 研究内容 |
1.2.2 科学意义 |
1.3 本文主要贡献 |
1.4 本文组织结构 |
第二章 研究进展 |
2.1 大数据分析系统软件栈 |
2.2 资源分配流程 |
2.3 相关工作 |
2.4 本章小结 |
第三章 基于半先验知识的任务调度方法研究 |
3.1 背景和动机 |
3.1.1 DAG作业和两层调度架构 |
3.1.2 调度收益 |
3.2 问题描述 |
3.3 COBRA的设计 |
3.4 理论证明 |
3.4.1 makespan分析 |
3.4.2 平均作业响应时间分析 |
3.5 系统实现 |
3.5.1 估计任务特性、节点上可用资源和资源使用控制 |
3.5.2 COBRA的实现 |
3.6 实验评估 |
3.6.1 实验设定 |
3.6.2 基于生产环境数据的模拟实验 |
3.6.3 实际系统实验 |
3.6.4 敏感性分析 |
3.7 小结 |
第四章 基于累计工作量的无先验知识的作业调度方法研究 |
4.1 DAG作业调度 |
4.1.1 问题形式化 |
4.1.2 生产环境的工作负载分析 |
4.1.3 调度收益 |
4.2 基于CRW的作业调度机制:带权重的多队列框架 |
4.3 CRWScheduler的实现 |
4.4 实验评估 |
4.4.1 实验设定 |
4.4.2 实验结果 |
4.5 小结 |
第五章 跨域大数据分析平台和其中的任务调度方法研究 |
5.1 背景和动机 |
5.1.1 规则管控阻止主控节点控制多数据中心资源 |
5.1.2 变化的场景需要自适应的方法 |
5.1.3 使用Spot实例需要容错性 |
5.2 系统概览:Houtu架构和作业生命周期 |
5.2.1 HOUTU架构和作业的生命周期 |
5.2.2 作业的正常操作和失效恢复 |
5.3 算法设计 |
5.3.1 问题描述 |
5.3.2 设计需求 |
5.3.3 资源管理 |
5.3.4 任务分配 |
5.3.5 理论分析 |
5.4 系统实现 |
5.5 实验评估 |
5.5.1 实验设定 |
5.5.2 作业性能 |
5.5.3 花费分析 |
5.5.4 失效恢复 |
5.5.5 代价分析 |
5.6 小结 |
第六章 总结与展望 |
6.1 本文总结 |
6.2 未来研究工作 |
致谢 |
参考文献 |
简历与科研成果 |
(4)基于深度强化学习的大数据平台作业调度算法与仿真实现(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 研究背景 |
1.2 研究现状 |
1.2.1 深度学习研究现状 |
1.2.2 强化学习研究现状 |
1.2.3 作业调度研究现状 |
1.3 课题来源 |
1.4 研究意义 |
1.5 主要工作内容 |
1.6 论文结构 |
第二章 相关基础理论和关键技术介绍 |
2.1 作业调度相关 |
2.1.1 作业调度简介 |
2.1.2 作业调度现有方法 |
2.1.3 作业调度评价指标 |
2.2 深度学习相关 |
2.2.1 深度学习简介 |
2.2.2 深度学习的多任务学习(MTL) |
2.2.3 深度学习的优点及挑战 |
2.3 强化学习相关 |
2.3.1 强化学习简介 |
2.3.2 强化学习相关概念 |
2.4 本章小结 |
第三章 基于深度强化学习的作业调度算法 |
3.1 深度学习部分 |
3.1.1 卷积神经网络原理 |
3.1.2 工具简介 |
3.1.3 卷积神经网络实现 |
3.2 强化学习部分 |
3.2.1 模型实现 |
3.2.2 策略(policy)实现 |
3.3 深度强化学习训练过程 |
3.3.1 模仿学习 |
3.3.2 探索与利用 |
3.4 本章小结 |
第四章 多虚拟机环境下推广 |
4.1 多任务学习原理 |
4.2 多虚拟机模型作业调度算法实现 |
4.2.1 负载均衡 |
4.2.2 输入数据处理 |
4.2.3 多任务学习网络建立 |
4.2.4 多任务学习参数更新 |
4.3 本章小结 |
第五章 作业调度仿真系统实现 |
5.1 需求分析 |
5.2 系统设计 |
5.3 系统实现 |
5.3.1 数据生成模块 |
5.3.2 作业调度模块 |
5.3.3 作业执行模块 |
5.3.4 数据收集模块 |
5.3.5 模型训练模块 |
5.3.6 结果展示模块 |
5.4 本章小结 |
第六章 测试与结果 |
6.1 实验环境及配置 |
6.1.1 实验硬件要求 |
6.1.2 实验软件要求 |
6.2 实验数据 |
6.3 实验结果 |
6.3.1 单机多资源池系统测试 |
6.3.2 多机多资源池系统测试 |
6.4 本章小结 |
第七章 总结与展望 |
7.1 工作总结 |
7.2 展望 |
致谢 |
参考文献 |
攻读硕士学位期间取得的成果 |
(5)港口泊位和拖轮的多目标协同调度优化研究(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 研究背景及意义 |
1.1.1 研究背景 |
1.1.2 研究意义 |
1.2 国内外研究现状 |
1.2.1 泊位调度问题研究现状 |
1.2.2 拖轮调度问题研究现状 |
1.2.3 拖轮与泊位的协同调度问题研究现状 |
1.3 研究内容与方法 |
1.3.1 研究内容 |
1.3.2 主要创新点 |
1.3.3 研究方法 |
第2章 泊位和拖轮调度问题理论概述 |
2.1 港口调度问题 |
2.1.1 港口一般布局 |
2.1.2 港口调度问题 |
2.2 泊位调度问题 |
2.2.1 泊位概念及类型 |
2.2.2 泊位作业系统 |
2.2.3 泊位调度问题 |
2.3 拖轮调度问题 |
2.3.1 拖轮概念及类型 |
2.3.2 拖轮作业流程 |
2.3.3 拖轮调度问题 |
2.4 本章小结 |
第3章 泊位和拖轮协同调度模型建立 |
3.1 调度问题的介绍 |
3.1.1 调度问题的提出 |
3.1.2 调度问题的分类 |
3.2 协同调度问题分析 |
3.2.1 问题描述 |
3.2.2 问题分析 |
3.3 数学模型的建立 |
3.3.1 模型假设 |
3.3.2 符号说明 |
3.3.3 目标函数 |
3.3.4 约束条件 |
3.4 本章小结 |
第4章 多目标协同调度优化算法设计 |
4.1 算法选择 |
4.1.1 调度问题算法 |
4.1.2 多目标优化算法 |
4.2 算法流程 |
4.2.1 NSGA-Ⅱ算法流程 |
4.2.2 改进的NSGA-Ⅱ算法 |
4.3 算法实现 |
4.3.1 编码及初始化 |
4.3.2 解码过程 |
4.3.3 交叉和变异操作 |
4.4 本章小结 |
第5章 算例求解与分析 |
5.1 算例生成 |
5.2 算例求解 |
5.3 结果分析 |
5.4 本章小结 |
第6章 总结与展望 |
6.1 总结 |
6.2 展望 |
参考文献 |
致谢 |
攻读学位期间获得的成果 |
附录 |
(6)异步并发的多密码算法运算关键技术研究(论文提纲范文)
摘要 |
ABSTRACT |
符号对照表 |
缩略语对照表 |
第一章 绪论 |
1.1 概述 |
1.2 高性能综合密码系统应用需求 |
1.2.1 高性能综合密码系统功能与性能需求 |
1.2.2 异步并发的多密码算法运算面临的挑战 |
1.3 主要研究内容和论文结构安排 |
1.3.1 主要研究内容 |
1.3.2 论文结构安排 |
第二章 相关技术国内外研究现状 |
2.1 密码算法与密码设备 |
2.1.1 密码算法 |
2.1.2 密码设备 |
2.2 多核密码处理器架构 |
2.3 多核调度技术 |
2.4 并发同步技术 |
第三章 异构多密码算法核并行处理架构 |
3.1 引言 |
3.2 线程级并行性分析 |
3.2.1 对称密码算法线程化 |
3.2.2 Hash算法线程化 |
3.3 高并发数据处理模型 |
3.3.1 通信数据包 |
3.3.2 基于数据标识的分级处理机制 |
3.3.3 并行执行时间 |
3.4 总体设计 |
3.4.1 同步机制 |
3.4.2 中间状态存取控制 |
3.5 性能分析及测试 |
3.5.1 并行粒度 |
3.5.2 加速比 |
3.5.3 并发数 |
3.5.4 测试 |
3.6 结论 |
第四章 多密码运算作业流调度方法 |
4.1 引言 |
4.2 任务模型 |
4.2.1 任务集 |
4.2.2 处理节点集 |
4.3 基于业务标识的分层硬件调度算法 |
4.3.1 第一级调度 |
4.3.2 第二级调度 |
4.3.3 中间状态管理 |
4.3.4 性能分析及测试 |
4.4 基于负载均衡的随机作业流密码服务调度算法 |
4.4.1 作业调度模型 |
4.4.2 作业调度策略 |
4.4.3 调度算法 |
4.4.4 性能分析 |
4.5 总结 |
第五章 多密码算法多数据流同步处理方法 |
5.1 引言 |
5.2 同步处理方法 |
5.2.1 同步控制架构 |
5.2.2 基于索引表的硬件同步机制 |
5.3 硬件实现 |
5.4 性能分析及测试 |
5.5 结论 |
第六章 结束语 |
6.1 工作总结 |
6.2 下一步工作展望 |
参考文献 |
致谢 |
作者简介 |
(7)面向航天器仿真分析的高性能计算应用模式研究(论文提纲范文)
摘要 |
Abstract |
1. 绪论 |
1.1 课题背景及实际意义 |
1.2 高性能计算技术及其发展现状 |
1.2.1 高性能计算硬件架构发展与研究现状 |
1.2.2 计算资源调度算法研究概述 |
1.3 论文的主要研究内容 |
1.4 本论文结构安排 |
2. 高性能计算及作业调度基础 |
2.1 高性能计算 |
2.2 LSF体系结构 |
2.2.1 LSF介绍 |
2.2.2 LSF体系结构 |
2.2.3 LSF作业调度流程 |
2.3 航天器制造和CAE软件 |
2.3.1 航天器产品制造的特点 |
2.3.2 CAE软件 |
2.4 本章小结 |
3. 面向航天器仿真分析的计算环境构建 |
3.1 面向航天器仿真分析的计算环境方案设计 |
3.1.1 平台的需求分析 |
3.1.2 平台的设计目标 |
3.1.3 平台的系统架构 |
3.2 面向航天器仿真分析的计算环境部署和配置 |
3.2.1 资源调度管理系统部署 |
3.2.2 按运算作业类型定义运算主机分组 |
3.2.3 按资源使用特点定义作业队列 |
3.2.4 按运算作业特点选择作业调度策略 |
3.2.5 基于XML模板的CAE应用集成 |
4. SDMM算法研究 |
4.1 Min-Min算法的研究 |
4.1.1 Min-Min算法研究的意义 |
4.1.2 Min-Min算法的基本概念 |
4.1.3 Min-Min算法的调度过程 |
4.1.4 Min-Min算法存在的问题 |
4.2 SDMM算法的研究 |
4.2.1 SDMM算法的介绍 |
4.2.2 SDMM算法的调度过程 |
4.2.3 SDMM算法的实例说明 |
4.2.4 SDMM算法的设计与实现 |
4.2.5 SDMM算法的对比分析 |
4.3 算法模拟与数值分析 |
4.3.1 网格模拟器研究 |
4.3.2 算法的性能评估 |
4.4 本章小结 |
5. 总结与展望 |
5.1 总结 |
5.2 后续的工作 |
5.3 本章小结 |
致谢 |
参考文献 |
附录 |
(8)负载均衡的Hadoop平台调度算法研究(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 论文研究背景及实际意义 |
1.2 国内外研究现状 |
1.3 论文研究内容 |
1.4 论文组织结构 |
第2章 HADOOP平台及相关技术介绍 |
2.1 HADOOP平台介绍 |
2.1.1 Hadoop平台优势 |
2.1.2 Hadoop平台架构 |
2.2 HADOOP平台核心技术 |
2.2.1 Hadoop的分布式文件系统HDFS |
2.2.2 Hadoop的分布式数据处理Map Reduce |
2.3 CLOUDSIM云仿真工具 |
2.3.1 Cloudsim体系结构 |
2.3.2 Cloudsim的设计与实现 |
2.4 本章小结 |
第3章 HADOOP平台下作业调度算法研究 |
3.1 单队列调度算法 |
3.2 公平调度算法 |
3.3 容量调度算法 |
3.3.1 作业调度流程 |
3.3.2 算法配置 |
3.3.3 容量调度算法的不足 |
3.4 公平调度算法的改进思想 |
3.5 本章小结 |
第4章 基于遗传算法的平台调度算法 |
4.1 遗传算法介绍 |
4.2 遗传过程 |
4.3 任务调度模型 |
4.3.1 作业调度问题描述 |
4.3.2 作业调度性能指标 |
4.4 基于遗传算法的比赛选择调度策略 |
4.5 本章小结 |
第5章 性能评估 |
5.1 实验环境 |
5.2 实验结果 |
5.3 本章小结 |
第6章 总结与展望 |
6.1 全文总结 |
6.2 进一步工作 |
参考文献 |
作者简介及在学期间所取得的科研成果 |
致谢 |
(9)面向异构计算的能效感知调度研究(论文提纲范文)
中文摘要 |
ABSTRACT |
第1章 绪论 |
1.1 研究背景及意义 |
1.2 国内外研究现状 |
1.3 本文工作和主要创新点 |
1.4 本文组织结构 |
1.5 本章小结 |
第2章 相关理论及研究工作 |
2.1 调度问题的定义及分类 |
2.2 异构调度的NP完全性 |
2.3 调度QoS指标量化 |
2.4 调度算法设计 |
2.5 本章小结 |
第3章 融合能效感知异构调度模型 |
3.1 DAG(Directed Acyclic Graph)模型 |
3.2 计算环境的异构性 |
3.3 QoS评价指标数学表述 |
3.4 异构调度多目标优化模型 |
3.5 本章小结 |
第4章 基因-模因自组织协同进化的人工免疫算法 |
4.1 人工免疫算法理论 |
4.2 协同进化的动力学模型 |
4.3 MCMC算法设计 |
4.4 算法时间复杂度分析 |
4.5 实验与结论 |
4.6 本章小结 |
第5章 多目标自适应群体智能进化算法 |
5.1 群体智能 |
5.2 粒子群算法 |
5.3 DPMO算法设计 |
5.4 算法性能分析 |
5.5 实验与结论 |
5.6 本章小结 |
第6章 总结与展望 |
6.1 本文主要工作总结 |
6.2 未来工作展望 |
参考文献 |
致谢 |
攻读博士学位期间发表的学术论文目录 |
攻读博士学位期间获奖情况 |
外文论文 |
学位论文评阅及答辩倩况表 |
(10)并行分布实时仿真平台任务调度技术研究(论文提纲范文)
摘要 |
ABSTRACT |
第一章 绪论 |
1.1 研究背景 |
1.1.1 并行分布实时仿真 |
1.1.2 多处理器仿真任务调度 |
1.2 研究现状 |
1.2.1 并行分布实时仿真研究现状 |
1.2.2 多处理器实时仿真任务调度研究现状 |
1.3 论文工作 |
1.3.1 研究内容 |
1.3.2 组织结构 |
1.3.3 论文贡献 |
第二章 仿真任务调度策略研究 |
2.1 引言 |
2.2 仿真任务调度问题描述 |
2.2.1 仿真任务描述 |
2.2.2 仿真平台描述 |
2.2.3 仿真任务调度问题描述 |
2.2.4 其他仿真任务调度相关问题 |
2.3 多处理器仿真调度算法分类 |
2.3.1 传统分类 |
2.3.2 考虑作业的分类 |
2.4 调度算法性能衡量指标 |
2.4.1 利用率界限 |
2.4.2 近似比率 |
2.4.3 资源增长量 |
2.4.4 试验测量 |
2.5 仿真任务分配问题 |
2.5.1 仿真任务分配问题分类 |
2.5.2 常用任务分配问题求解算法 |
2.6 本章小结 |
第三章 实时仿真可调度性分析 |
3.1 引言 |
3.2 实时仿真可调度性形式化描述 |
3.3 基本可调度性区间 |
3.4 基于单个仿真任务执行状态的可调度性区间 |
3.4.1 仿真任务执行状态上限 |
3.4.2 仿真任务执行状态下限 |
3.4.3 第一个改进可调度性区间 |
3.5 基于仿真任务集执行状态的可调度性区间 |
3.5.1 仿真任务集执行状态上限 |
3.5.2 仿真任务集执行状态下限 |
3.5.3 第二个改进可调度性区间 |
3.6 最终可调度性区间 |
3.6.1 时间复杂度 |
3.7 本章小结 |
第四章 分布式实时仿真平台任务分配 |
4.1 引言 |
4.2 理论算法基础 |
4.2.1 模拟退火算法 |
4.2.2 模拟退火算法冷却表 |
4.2.3 混沌优化算法 |
4.3 仿真任务分配问题形式化建模 |
4.3.1 问题描述 |
4.3.2 仿真平台可靠性 |
4.3.3 约束条件 |
4.3.4 仿真任务分配的组合优化建模 |
4.4 仿真任务分配算法 |
4.4.1 算法基本思想 |
4.4.2 解的表达形式 |
4.4.3 能量函数形式 |
4.5 本章小结 |
第五章 多核集群实时仿真平台任务分配 |
5.1 引言 |
5.2 理论算法基础 |
5.2.1 网络流问题 |
5.2.2 最小费用流问题 |
5.2.3 广义最小费用流问题 |
5.3 仿真任务分配问题形式化建模 |
5.3.1 问题描述 |
5.3.2 单个节点通信代价 |
5.3.3 一致代价仿真任务分配问题建模 |
5.3.4 非一致代价仿真任务分配问题建模 |
5.3.5 仿真任务分配的广义最小费用流建模 |
5.4 仿真任务分配算法 |
5.4.1 遗传算法 |
5.4.2 算法基本思想 |
5.5 本章小结 |
第六章 异构多处理器实时仿真平台任务分配 |
6.1 引言 |
6.2 理论算法基础 |
6.2.1 线性规划问题 |
6.2.2 二分图问题 |
6.3 仿真任务分配问题形式化建模 |
6.3.1 问题描述 |
6.3.2 仿真任务分配的整数线性规划建模 |
6.3.3 仿真任务分配的线性规划建模 |
6.3.4 仿真任务分配的线性松弛二分图建模 |
6.4 仿真任务分配算法 |
6.4.1 算法基本思想 |
6.4.2 二分图中回路的消除 |
6.4.3 散碎仿真任务完整分配 |
6.5 本章小结 |
第七章 仿真任务分配算法验证分析 |
7.1 引言 |
7.2 试验参数设置 |
7.3 仿真试验结果 |
7.4 时间序列分析 |
7.5 本章小结 |
第八章 总结与展望 |
8.1 论文工作总结 |
8.2 未来工作展望 |
致谢 |
参考文献 |
作者在学期间取得的学术成果 |
四、Approximation algorithm for multiprocessor parallel job scheduling(论文参考文献)
- [1]深度学习云平台中GPU调度策略及任务并行化方法研究与应用[D]. 耿欣. 北京邮电大学, 2020(05)
- [2]大阵元超声相控阵多组扫查系统的局部调度建模与优化[D]. 李宇中. 华南理工大学, 2019(06)
- [3]面向大数据分析系统的资源调度研究[D]. 张晓达. 南京大学, 2019(12)
- [4]基于深度强化学习的大数据平台作业调度算法与仿真实现[D]. 王金. 电子科技大学, 2019(01)
- [5]港口泊位和拖轮的多目标协同调度优化研究[D]. 谢兰. 武汉理工大学, 2019(07)
- [6]异步并发的多密码算法运算关键技术研究[D]. 李莉. 西安电子科技大学, 2018(07)
- [7]面向航天器仿真分析的高性能计算应用模式研究[D]. 王志佳. 南京理工大学, 2018(04)
- [8]负载均衡的Hadoop平台调度算法研究[D]. 杨明晨. 吉林大学, 2017(09)
- [9]面向异构计算的能效感知调度研究[D]. 王静莲. 山东大学, 2015(04)
- [10]并行分布实时仿真平台任务调度技术研究[D]. 吴文波. 国防科学技术大学, 2015(12)