ImageVerifierCode 换一换
格式:PPTX , 页数:55 ,大小:9.97MB ,
文档编号:3349932      下载积分:28 文币
快捷下载
登录下载
邮箱/手机:
温馨提示:
系统将以此处填写的邮箱或者手机号生成账号和密码,方便再次下载。 如填写123,账号和密码都是123。
支付方式: 支付宝    微信支付   
验证码:   换一换

优惠套餐
 

温馨提示:若手机下载失败,请复制以下地址【https://www.163wenku.com/d-3349932.html】到电脑浏览器->登陆(账号密码均为手机号或邮箱;不要扫码登陆)->重新下载(不再收费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录  
下载须知

1: 试题类文档的标题没说有答案,则无答案;主观题也可能无答案。PPT的音视频可能无法播放。 请谨慎下单,一旦售出,概不退换。
2: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
3: 本文为用户(三亚风情)主动上传,所有收益归该用户。163文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

1,本文(企业云数据中心解决方案(同名823).pptx)为本站会员(三亚风情)主动上传,163文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。
2,用户下载本文档,所消耗的文币(积分)将全额增加到上传者的账号。
3, 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(发送邮件至3464097650@qq.com或直接QQ联系客服),我们立即给予删除!

企业云数据中心解决方案(同名823).pptx

1、目录Contents建设背景建设目标设计方案节能方案ONE建 设 背 景数据中心(集成)是一种环境技术,数据中心同时是一种综合性产业,它包括温度、湿度、防尘、有害气体、电磁干扰、屏蔽、防静电、防漏水、隔热、保温、防火、美学、光学、噪声、振动等方面综合的考虑设计。它涉及到多种专业:空调、配电、照明、自动检测与控制技术、抗干扰技术、综合布线技术、净化、消防、建筑、装潢等。提供完整的数据中心解决方案物理概念工程意义实施角度建筑装修电力供应空调新风消防灭火弱电控制前期规划设计中期设计施工后期调试开通今后维护服务设备供应商工程承包商服务提供商什么是数据中心建设背景01建设背景02为什么建设数据中心n 为

2、了完成企业信息化建设,将以数据中心建设为核心,并将其作为企业的知识中心及通用的业务平台;n 数据中心采取“数据集中、应用分布”的方式,可以有效地提高信息资源的利用率n 企业知识的集中沉淀与优化应用,将成为企业扩张经营的必备条件,数据中心在此方面扮演极为重要的角色n 许多大企业正在建设或已经建设了各自的数据中心,企业关键应用系统和关键硬件设施均统一集中在数据中心,支持企业的核心业务运作。数据中心建设建设背景03 4G、云计算、物联网、5G等业务快速增长,机房能耗急剧上升;传统数据中心机房功率密度从3-5kW/柜上升至10kW+,机房局部过热成为设备安全运行的最大风险设备功耗发展趋势 制冷效率低业

3、务增长快、能耗上升大模块化扩容 机房建设周期1-2年,早期无法准确预测业务发展 无法按需部署和模块化扩展 传统数据中心:只监控不管理 IT设备与机房基础设施实现智能联动,提升管理效率缺乏统一的监控管理监控+管理机房环境能耗监控IT资源动态调节演进差 机柜同一朝向布置,级联加热;空调风帽上送风,冷热气流混合严重 机柜内无挡风盲板,热气流回流 线缆布置不合理,阻碍气流输送,影响维护性,降低可靠性传统数据中心面临的挑战云数据中心平台企业云业务专业服务定制业务基础业务专业服务云数据中心业务传统数据中心业务云数据中心业务迅速孵化传统与云数据中心业务并存衍生更多的专业服务效率能耗可用性设备业务量催生高计算

4、、存储密度成本与环保推动能耗持续提升设备可用性转换为业务可用性机房设备模块化IT设备从大型机/小型机扩展为X86更低PUE的满足需求的各级别数据中心云业务发展对企业云基础平台提出更高要求建设背景04效率低能耗高业务弱传统数据中心 (数据来源:Michael Bell,research vice president at Stamford)20%IT平均资源利用率数据来源:The Green Grid 2.5 传统数据中心PUE 3KW 已经远不能满足需求 50%非IT设备支出占比持续增加 90天 平均业务上线周期建设背景05传统数据中心难于承载企业快速发展的云计算业务TWO建 设 目 标建设目

5、标06 绿色机房平滑演进精密送风密封冷通道自然风冷集装箱联动控制智能机器人模块化机房单柜密度平滑提升高效节能单柜9KW单柜18KW(液冷)更高密度30KW(计划)智能管控系统 建设目标07优化供电方案绿色IT设备高效制冷管理基于云计算绿色节能高能效,节能减排端到端集成优化制冷策略优化冷源选择优化气流管理提高电源系统效率柴油发电机组策略高压直流供电策略服务器节能存储系统节能网络设备节能安全设备节能器件节能基于云计算提升资源和空间利用率减少IT设备实现节能减排机房集成IT设备集成虚拟化分布式智能化自动化并行云平台集成内部计费 VoIP可视运维CT能力集成统一门户虚拟桌面OAERP业务平台集成 视频

6、会议CRMTHREE云 数 据 中 心 设 计 方 案数据中心设计规范 GB50174-2017数据中心基础设施施工及验收规范 GB50462-2015云计算数据中心基本要求 GB/T 34982-2017电子计算机场地通用规范 GB/T 2887-2011计算站场地安全要求 GB 9361-2011防静电活动地板通用规范 GB/T 36340-2018 建筑用安全玻璃防火玻璃 GB15763.1-2009建筑内部装修设计防火规范 GB 50222-2017低压配电设计规范 GB50054-2011供配电系统设计规范 GB50052-2009建筑照明设计标准 GB50034-2013建筑物防雷

7、设计规范 GB50057-2010综合布线系统工程设计规范 GB 50311-2016视频安防监控系统工程设计规范 GB 50395-2007安全防范工程技术规范 GB50348-2018出入口控制系统工程设计规范 GB50396-2007气体灭火系统设计规范 GB50370-2005工业建筑供暖通风与空气调节设计规范 GB50019-2015室内空气质量标准 GB/T18883-2002云数据中心设计方案-设计依据08云数据中心设计方案-设计原则09一般进行双节点冗余性设计过度的冗余不便于运行维护n适当的冗余性结构化n网络的对称性对称性有助于拓扑直观有助于协议设计分析n网络业务的适度分隔有利

8、于网络的策略部署减少对关键业务的影响缩小故障范围模块化n数据中心以应用群为单位整合成模块部件n根据数据中心不同业务区域性质设计安全模块要素n安全模块可集中部署数据中心访问控制策略标准化n对数据中心模块设计规范化n相同架构要求的业务区采用同样的基础网络组件n扩展数据中心区域可直接进行模块复制云数据中心专业服务集成实施规划设计商业咨询项目管理评估优化专业管理系统综合网管 数据中心业务管理安全管理机房管理云平台管理IT服务管理计算网络存储负荷均衡安全绿色数据 中心机房机房布局电力系统 制冷系统综合布线消防监控门禁机柜运维中心虚拟化(计算、存储、网络虚拟化)云管理平台(分布式、并行、自动管控)IT I

9、T云平台 基础业务基础业务数据中心业务 云业务云业务 定制业务定制业务基础办公桌面运营办公系统外部网站IaaS业务PaaS业务SaaS业务安全服务容灾、备份。云数据中心设计方案-方案框架10云数据中心设计方案-方案概述11l 精确送风机柜l IT设备机柜l油机&ATSlUPSl直流电源柜l交流电源柜l静态转换开关l电池及电池架l电源线缆l走线架l光纤配线架l线缆&光纤l标识l走线支架l火灾探测系统l烟感探测系统l灭火系统l平面布局l门&窗l墙&天花板l架空地板l照明等l瞬间浪涌电压抑制装置l接地保护系统机柜系统内部装修供电系统防雷/接地消防系统综合布线制冷系统集成管理l门禁lCCTVl动环监控

10、l集成管理l精密空调l舒适性空调l通风系统咨询交付设计维保机房物理基础设施机房服务n需求分析n业务模型预测n方案架构n机房选址n可行性验证n项目估价n风险分析输出:l机房咨询报告n整体布局n供配电设计n冷却系统设计n智能管控设计n机柜系统设计n综合布线设计n消防系统设计n防雷接地设计输出:l整体规划图l子系统要求l子系统施工图n供配电实施n冷却系统实施n智能管控实施n机柜系统实施n综合布线实施n消防系统实施n防雷接地实施输出:l相关部件安装l单击调测l联合调测l完成验收n7*24问题受理n技术咨询n一般故障处理n重大故障处理n备件维修n机房健康检查n油机保养项目管理云数据中心设计方案-方案特点

11、12绿 色运 营数据中心企业 业务绿色节能精确制冷高效供电联动控制创新的绿色节能端到端集成机房系统集成计费系统集成其他电信系统集成CT、IT业务平台集成企业级云数据中心 高可扩展性企业级云平台高可靠性高安全性 规模集群管理、维护业务使能中心云数据中心业务的最佳孵化器充分集成电信能力的平台网络感知开放的方案架构 向下兼容通用X86架构服务器异构虚拟化软件向上兼容开放API,合作共赢云数据中心设计方案-云平台基础架构13云数据中心设计方案-云平台基础架构14灾备存储计算网络网络是数据(&容灾)中心访问必备模块计算是业务数据中心必备模块,容灾中心可选存储是数据中心必备模块,但是在多中心结构下,可选择

12、DC载体灾备是数据中心可选模块云数据中心设计方案-安全架构15 内容监管、SOX法案、SAS 70、PCI/HIPAA等 门禁、机房监控系统、云监控 多因素接入认证、集中用户管理和认证、集中日志审计、镜像签名和完整性保护 虚拟机隔离、虚拟防火墙,恶意VM预防 防火墙、IDS/IPS、Anti-DDOS、僵尸网络/蠕虫检测、网络平面隔离、传输安全(SSL、VPN)、系统完整性保护、OS/DB/Web加固、安全补丁、病毒防护等 数据隔离、数据访问控制、剩余信息保护、快照加密、用户数据加密存储、存储位置要求。数据虚拟化管理安全网络安全基础设备虚拟化管理安全网络安全基础设备物理安全物理安全其他:法律法

13、规的遵循云数据中心设计方案-安全模型16安全管理“拒绝服务”(DOS)反病毒InternetInternetVPN/campus端点准入数据中心应用优化L2 交换机:BPDU Guard、端口隔离、五元组绑定、802.1X等实现二层安全保护L2.5 MPLS:网络隔离L3 路由器/防火墙/AFC/SSL:访问控制和隔离、加密L4 NTA“网络水表”流量异常分析L57 IPS应用层威胁识别和抵御:蠕虫、间谍软件、P2P、病毒、攻击等IP存储:数据安全(异地容灾,数据备份)安全管理用户管理(iMC)业务体系云平台硬件基础设施绿色节能:高效环保,降低成本,履行社会责任无规模,不成云:规模化运营、技术

14、支撑与完善的服务体系兼容、开放:异构兼容,多厂家API兼容,可与第三方合作弹性扩展/收缩业务云数据中心设计方案-大型企业云数据中心特征17云数据中心设计方案-整体布局示例18数据中心机柜精密空调配电区进线室VIP机房办公区仓库会议室运维中心前台接待数据中心机房云数据中心设计方案-实施效果示例19整体整体搭配谐调美观,视觉效果良好。机房布局合理,有效提升机房面积的利用效率局部采用六类屏蔽电缆,支持万兆传输能力,满足业务后续扩容发展;线缆布放美观大方。机柜上铜条接地方式,维护方便,接地特性好、抗干扰能力强,实现机房内所有机柜无地压差。细节通过在硫酸钙地板与横梁间铺设软胶条确保密封效果,保证地板静压

15、箱能够远距离送风。保障精确下送风方案的顺利实施。地板与墙面间采用不锈钢踢脚线,美观的同时,起到了很好的密封作用。Tier I基本Tier II冗余单元Tier III可并行维护Tier IV容错可用性99.671%99.749%99.982%99.995%每年IT 服务中断时间28.8小时22.0小时1.6小时0.4小时建筑类型租用租用自建自建线路冗余NN+11主1备双主面积功率(w/ft)20304050100+150+多运营商线路否否是是主干线缆冗余否否是是水平配线冗余否否否可选供电线路1路1路1主1备2路热备UPS冗余NN+1冗余N+1冗余2N冗余注:数据中心的定级取决于整个系统中最低等

16、级的部件云数据中心设计方案-等级划分20吊顶n计算机机房吊顶板:表面应平整,不得起尘、变色和腐蚀;其边缘应整齐、无翘曲,封边处理后不得脱胶;填充顶棚的保温、隔音材料应平整、干燥,并做包缝处理;n按设计及安装位置严格放线;n安装位置准确:定准吊顶上的灯具、各种风口、火灾探测器底座及灭火喷嘴等位置,并与龙骨和吊顶紧密配合安装。地面工程整个机房区的地面在铺设地板之前,需作防尘、防潮处理,活动地板下的建筑面应平整、光滑并做保温防尘处理,机房内防静电地板需做等电位体,云数据中心设计方案-基础装修21隔断工程n无框玻璃隔断,应采用槽钢、全钢结构框架。n石膏板、吸音板等隔断墙的沿地、沿顶及沿墙龙骨建筑围护结

17、构内表面之间应衬垫弹性密封材料后固定。n竖龙骨准确定位并校正垂直后与沿地、沿顶龙骨可靠固定。n全钢防火大玻璃隔断,钢管架刷防火漆,玻璃厚度不小于12mm,无气泡。门窗工程铝合金门框、窗框、隔断墙的规格型号应符合设计要求,安装应牢固、平整,其间隙用非腐蚀性材料密封。当设计无明确规定时隔断墙沿墙立柱固定点间距不宜大于800mm云数据中心设计方案-基础装修22云数据中心设计方案-供配电系统23UPS一类电源n一是应急使用,防止突然断电而影响设备正常工作,给用电设备造成损害;n二是消除市电上的电涌、瞬间高电压、瞬间低电压、电力线噪声和频率偏移等“电源污染”,改善电源质量,为用电设备提供高质量的电源。市

18、电供电电源二类电源n由电源互投柜分别送至空调、照明配电箱和插座配电箱,再分路送至灯具及墙面插座。电缆用阻燃电缆,照明支路用塑铜线,穿金属线槽及钢管敷设。柴油发电机组三类电源n由电源互投柜分别送至空调、照明配电箱和插座配电箱,再分路送至灯具及墙面插座。电缆用阻燃电缆,照明支路用塑铜线,穿金属线槽及钢管敷设。云数据中心设计方案-供配电系统24供配电系统:应为380V/200V、50HZ,计算机供电质量达到A级。供配电方式:为双路供电系统加UPS电源及柴油发电机设备,并对空调系统和其他用电设备单独供电,以避免了空调系统启停对重要用电设备的干扰。供电系统的负荷包括如下:1.服务器功率:单台服务器功率

19、服务器台数=总功率2.UPS总功率:一般采用n+1备份方案,亦即并联UPS台数多加壹台,以防止某一台机组出现故障。目前UPS效率均在90%以上,故按照服务器总功率可以计算出UPS的总KVA数。3.恒温恒湿精密空调负荷:工作区面积200250 kcal/hr/m2=总的空调所需制冷量4.办公区空调、照明等负荷5.其它用负荷由上可以计算出一个数据中心机房所需的用电负荷总功率。云数据中心设计方案-电气系统25u机柜分类:服务器机柜、网络机柜、控制台机柜等u尺寸:机柜高一般在1.8m2.2m左右u结构:封闭式,半封闭式,敞开式机柜机柜摆放原则u摆放方式:面对面,背对背,形成冷热通道u间距:背部间距最小

20、需要间隔0.6m,推荐间隔1米前部间隔最小为1米推荐间隔1.2m与吊顶间距:至少0.4m1m1.2m热通道冷通道冷通道热通道云数据中心设计方案-机柜系统26u功率:考虑到供电及散热,单机柜功率35KW,规划时建议不超过4KW。根据服务器的功率(PC服务器正常功耗300500W)计算出机柜的数量,推荐每个机柜放置810台PC服务器。u经验值:对中型数据中心而言,每机柜每平米经验值为附:机房面积与机柜数据参考区域中心机房数据中心整体每机柜每平米3m24m25m26m2主机房面积(m2)机柜每机柜平米30009003.322003256.81858090902.0314411512.77618228

21、03.31400040003.5云数据中心设计方案-机柜系统27可靠性低高?精密空调(N+1)分体空调中央空调机房重要区域公共区域恒温恒湿环境机房辅助环境 舒适环境机房室内环境参数 夏季:温度232,相对湿度50%冬季:温度202,相对湿度50%云数据中心设计方案-空调通风(精密空调)28节能方案-空调通风(精密空调)29l通过CFD仿真分析,提前对机房内设备布置进行优化,确保机房气流组织和散热效果达到最佳;l采用精确下送风方案优化机房气流,通过密封地板,确保冷、热气流完全隔离,把冷风直接送入机柜l采用智能送风调节系统,动态调节每个机柜的送风量,根据设备散热需要动态分配冷风,无需散热的地方则无

22、冷风,从而彻底解决了传统机房出现的散热不均的问题。空气流动冷风道/热风道电缆布置天花板导管辅助云数据中心设计方案-散热风道30云数据中心设计方案-散热风道31封闭冷通道 封闭热通道1.等电位接地的处理 接地是避雷技术最重要的环节,而且小型机以上的计算机系统对接地要求也很高,其接地地阻通常要求小于1欧姆以下。但对于避雷技术来说,地阻小于4欧姆即可。应将避雷接地、电器安全接地、交流地、直流接地统一为一个接地装置,避免不同的地之间产生反击。2.电源部分防雷设计 根据雷电流大、防雷器存在残压及设备耐冲击水平低的特性,应遵循多级保护,层层泻能的原则,选择安装避雷器,进行电源线路的过压保护。3.信号系统的

23、防雷设计 机房的数据通信线路有以太网双绞线、DDN专线、光纤线路以及电话线备份线路,必须对进出机房的的所有通信线路进行防雷处理,才能保护机房的安全。云数据中心设计方案-防雷接地系统32地板下走线 数据线,电源线和冷风管道从数据中心架空的地板下安装;应用场景大部分数据中心优点 冷气从地板送入机架,热气从数据中心顶部抽走,有利于热循环;数据线、电源线安装在地板下,避免直接接触,更加安全;同时地板布线便于维修;结论:顶部布线:小型数据中心(小于100平米),并且高度有限,建议采用顶部布线;地板布线:大小数据中心建议采用地板布线更加利于散热,并便于维修。云数据中心设计方案-走线方式1:下走线33地板下

24、装电缆比架在空中的电缆便宜,也更好安装,也更美观;大多数直接放在地板上的主机系统/大服务器,都是设计成地板走线的;电缆应该被放在电缆槽中铺设,最好采用“电缆筐”而不是电缆槽,因为电缆槽容易影响空气流动;光缆和铜缆要分开铺设;电源电缆和双绞线电缆要分卡铺设;电源电缆部署在冷通道下,通信电缆部署在热通道下;如果没有预先的规划,地下电缆槽可能阻塞空气的流动;上图是高度0.91M(36英寸)的高架地板下的景象云数据中心设计方案-走线方式1:下走线34应用场景应用于中小型数据中心优点投资低于地板走线方式,占用地板空间少,利于小型数据中心;缺点冷却系统设计复杂;电源插座可靠性降低,存在因为插座重力作用导致

25、脱落的可能;建议采用交叉插座进行固定。机柜上走线 数据线,电源线和从数据中心的吊顶安装;冷风管道也在吊顶安置;机柜高度一般为2m,空气流动所需机柜顶面至天花板的距离一般为500-700mm,所以机房净高不小于2.6m.云数据中心设计-走线方式2:上走线35架空走线 弱电、强电、光纤分层架空走线,避免干扰。火灾隐患容易及时发现应用场景大型数据中心缺点机房层高要求扩展难度大,维护困难云数据中心设计-走线方式3:架空走线36项目下走线架空走线上走线初期安装工序地板下固定和敷设电源线和数据线两个走线槽,布线。在机柜正下方的地板上打孔,方便线缆进入机柜。在天花水泥板上打孔固定吊线架,布线。放线到每个机柜

26、。在每个机柜顶部安装数据线和电源线槽,放线到每个机柜。两排机柜之间架走线桥架。工程量大中小扩容工序在配电柜内增加开关。揭开地板,揭开走线槽盖板,重新从配电柜放线过来,在机柜正下方固定电源插座。恢复地板。在配电柜内增加开关。延机柜上方吊线架放线进入机柜。在配电柜内增加开关。延机柜顶部线槽放线进入机柜。扩容对制冷的影响 揭开高架地板,造成气流布局破坏,影响机柜散热。无影响无影响扩容最难难简单火灾如果在地板下的电缆发热、变软、冒烟、起火,这个过程不容易被及时发现,容易从小事故变成大灾难。在吊线架上的电缆冒烟起火还是比较容易发现的。由于天花有吊顶,色彩反差大,如果有冒烟起火会被及时发现,人工、摄像、监

27、控系统多重监控。水灾容易受水灾影响,进而带来人身和设备安全。基本不会受影响基本不会受影响虫鼠危害比较容易受危害,不能及时发现。有可能受危害,但能及时发现咬掉的线缆残渣。有可能受危害,但能及时发现咬掉的线缆残渣。对下送风制冷的影响地板下的走线槽会阻碍冷空气流动,从地板下进入机柜时要在地板上开口,造成冷热空气混合,冷空气逃逸。无影响无影响对机房装修的要求 要求有高架地板,地板高度最好为大于600mm。(根据中国的环境最好是高于300mm)要求天花水泥板与吊线架结构紧密,要求天花梁下到机柜顶部的高度大于600mm要求天花梁下到机柜顶部的高度大于400mm维护能力维护比较麻烦,需要掀开地板和走线槽寻找

28、。要爬的较高维护最简单,只需要一个小梯子。云数据中心设计-走线方式的优势对比37云数据中心设计-分布式列头柜38u网络设备列头柜汇聚u列头柜连接到服务器机柜u由列头柜上行连接到网络核心机柜组u没有线缆重叠u连接线缆短,传输性好u网络层次性好,容易扩展u成本低、管理方便u空气流通性好,便于散热确定电源需求 通过计算数据中心的机架数量,每机架需要的电源功率,并作出适当预留(20%),来确定整个数据中心需要的电源功率;配电方式方式A:直接将电源模块与服务器机架相连;方式B:将电源通过电源分配单元与服务器机架相连;方式A方式B云数据中心设计-机柜用电系统布线方式39云数据中心设计-消防报警及灭火系统4

29、0消防控制中心包括智能火灾报警控制主机,用于集中报警及控制。消防控制中心外围报警及控制包括光电感烟探测器、感温探测器、组合控制器和气瓶等。视频监控系统对建筑物内外的主要出数据中心各区域入口、通道、电梯厅、电梯轿厢、中心机房及其他重要部位进行视频监视,实时地显示和记录被控现场或被控目标的详细情况,以便保安人员及时采取措施。云数据中心设计-视频监控系统41监控中心被监控对象按功能分为动力和环境两大类,动力类包括高配电、低压配电、UPS、油机、电源、电池组、空调等,环境类包括、烟感、温度、湿度等。云数据中心设计-动力环境监控系统42 门禁管理系统的主要目的是保证重要区域设备和资料的安全。系统实现对来

30、访者的身份确认和通道控制。云数据中心设计-门禁系统43FOUR节 能 方 案PUE(Power Usage Effectiveness)是一个衡量数据中心全年耗能情况的指标。数据中心每年总能耗每年IT设备能耗=机械设备能耗+电气设备能耗每年IT设备能耗PUE=P P U U E E (耗耗 能能 有有 效效 性性)评评 级级效效 率率 0 0.6 6 7 71 1.5 5 t to o 2 2很很 好好0 0.5 5 t to o 0 0.6 6 7 72 2 t to o 2 2.5 5好好0 0.4 4 t to o 0 0.5 52 2.5 5 t to o 3 3一一 般般0 0.3

31、3 3 3 t to o 0 0.4 4 3 3差差 0 0.3 3 3 3机械设备能耗:u制冷系统(冷水机组,水泵,冷却塔,CRAC空调压缩机)u 风能能耗(CRAC/CRAH 送风风机)u 通风系统(风机盘管,空调箱)u 加湿系统,加热系统(空调箱,精密空调)电气设备能耗:uIT设备PUE计算公式中的坟墓u UPS损耗u 发电机能耗u 灯光能耗 注:节能方案-能耗评估指标PUE44节能方案45房间级制冷+普通变压器工频UPS高利用率自然冷却空调机+高温冷冻水+冷冻站自控+变频技术列间空调+独立加湿除湿热/冷通道封闭+背板冷门非晶合金变压器+SVG精确补偿+IGBT高效UPS模块化UPSEC

32、O运行高压直流市电直供定制服务器冷冻水集中空调风冷低利用率动环监控协调联动高效运行精细化动态管理精细化设计和合适的技术选型是数据中心降低PUE、节能减排的关键 PUE值 节能方案46严格执行公共建筑节能设计标准GB 50189-2015;数据机房四周不临外墙,减少冷量流失;地板下设橡塑保温。采用新的数据中心热量指南标准,放宽服务器的使用环境要求;从芯片入手,降低服务器能耗;从软件入手,提高服务器利用率;直流服务器节能技术。优化路由,变压器随楼层布置,高压深入负荷中心;选用节能型变压器、UPS等设备;无功补偿与谐波治理,降低无功损耗;多种制冷方式组合;合理利用自然冷源,降低空调系统耗电量。优化气

33、流组织,封闭冷通道,设置必要的密闭装置,提高热交换效率;选用高能效比的空调设备,室内机采用EC节能风机;采用绿色照明技术,采用楼控和本地控制相关结合的灵活控制手段;大功率动力设备采用变频控制方式;冷冻站采用自控系统控制,降低冷冻站设备运行功耗;节能方案47 从机柜到机房的节能自然冷源的智能双循环制冷机房冷热通道柜内冷热隔离柜外精确送风密封的冷通道机房冷热隔离防止热风回流,降低制冷效率l密闭制冷空间l根据温度调节风阀l节能达30%l密闭制冷空间l火灾自动开启密封板l节能达30%通过热仿真、模拟和勘测打造绿色机房CFD仿真分析Mockup模拟测试机房勘测(机器人、风速、风量检测)节能方案48云平台功耗低中高低需求时降低云平台功耗高峰时期提高云平台利用率谢谢观赏永远是朋友

侵权处理QQ:3464097650--上传资料QQ:3464097650

【声明】本站为“文档C2C交易模式”,即用户上传的文档直接卖给(下载)用户,本站只是网络空间服务平台,本站所有原创文档下载所得归上传人所有,如您发现上传作品侵犯了您的版权,请立刻联系我们并提供证据,我们将在3个工作日内予以改正。


163文库-Www.163Wenku.Com |网站地图|