模块化数据机房所具备的五大优势:
1、高密度、智能化优势
伴随社会发展,数据信息量高速增长,数据中心的密度也越来越高。过去的数据中心呈现分散化、小型化的布局,未来随着大数据、云计算的兴起,大型数据中心会越来越多,单机柜发热密度也会越来越高。模块化数据中心解决方案是提供业界优秀的云计算解决方案,包括云化IT设备,如服务器、存储、网络等。方案采用面向高性能、云计算的可定制化服务器,应用智能化的云计算运营管理平台,充分实现数据中心资源的统一管理、统一部署、统一监控和统一备份。
传统数据中心采用地板下送风方式,每机柜设置1-2个出风口,每个风口出风量为500-800m3/h,以12℃的送回风温差计算,单台机柜空调制冷量最大为3kw-5kw,无法解决高密度服务器的散热问题,难以满足单机柜5kW以上的高密度机柜散热。
模块化数据中心采用行间空调就近水平送风、封闭冷/热通道的方案,送风和和回风都处于较小范围内,气流组织相互不干扰,可以将每个行间空调及其附近的几个机柜作为一个制冷单元来考虑,这样可大大提高制冷效率,行间空调通过点对点精确制冷,将冷量直接送至服务器机柜,确保了对高密数据中心制冷能力的支持,支持单机柜功率最高可达10kW以上。
2、按需部署、灵活扩展优势
我国的IT设备需求正处于上升期,各个数据中心业务发展迅猛,经常出现刚建好投入使用的数据中心一两年内现有配置就无法满足需求,传统数据中心后期扩容无安装或扩容安装难度很大,导致重复建设和投资浪费较大。模块化数据中心,主要包括了一系列采用模块化设计的动力设备,如不间断电源、制冷系统、机架和远程监测系统等,通过简单的接口将相关模块进行组合,从而形成一个完整的数据中心。无论企业当前处于何种规模,或从事哪个行业领域,都可以按照自己的需求定制模块化数据中心,并可伴随业务发展需求,逐步扩张数据中心规模,以应对更多IT需求。这意味着企业可以在未来拥有数倍计算能力,而不会对现有数据中心的功能性或者设计带来任何影响。这正是它最具魅力之处。
3、建设时间优势
传统的数据中心从规划到建设完成通常需要几个月,甚至几年,这与IT设备快速的更新换代周期存在不可协调的矛盾,往往出现传统的数据中心经过漫长的建设周期投入使用后,很快又不能适应最新的IT设备发展需求。
相对新建或扩建传统数据中心而言,模块化数据中心的部署时间更短,从设计到正式部署应用只需要十多周的时间即可完成,而且也更节约占地。这一方面是因为它内部已集成了大量动力基础设备,只需加入相应的IT设备就可投入运营,另一方面模块化设计更有利于选址,只要有水、电和网络这些资源,模块化数据中心的选址并不挑剔,如公司的办公楼、仓库里甚至停车场都可以,这对于经常需要受到项目进度考验的CIO而言无疑是个好消息。
模块化数据中心一体化集成配电系统、制冷系统、监控系统、机柜及其结构系统(包括机柜、支撑结构件、顶棚、桥架以及冷通道等),通过简单的接口将相关模块进行组合,从而形成一个完整的数据中心。
4、运营成本优势
模块化数据中心还可帮助企业合理控制IT成本支出。现在随着云计算不断升温,互联网应用急剧增加,随着企业机构配置更多的服务器和存储设备来满足数据存储日益增长的需求,能耗需求和成本也达到了前所未有的水平,“数据中心的能耗成本将越来越高于硬件购置成本”,已成为数据中心管理者无法回避的问题。
而模块化数据中心则通过模块化、定制化的设计来帮助用户在初建阶段降低成本,并通过后期运营阶段对IT设施进行集中管理来控制能耗;除此之外,采用这一建设方式还可帮助企业用户提高空间和设备利用率、减少无谓的人力资源消耗,从而有效控制了数据中心的综合运营成本。
5、绿色节能优势
传统的数据中心关注整个物理机房的温度,即设计规范要求的23±1℃;而模块化数据中心关注IT设备的入口温度,并不关注整个物理机房的温度,在保证服务器正常工作的温度范围内,提高机柜进风温度,可降低制冷系统能耗,把有效的冷量都用在IT设备上面,这样可以大幅度降低空调的制冷能耗,提高了制冷效率。
传统数据中心冷热气流混合严重,温度梯度不均,局部热点比较严重,能耗浪费比较严重;模块化数据中心则使用密闭通道的建设方式,有效隔绝冷热通道,避免无效热交换,行间空调通过点对点精确制冷,大幅度提高能效利用效率。
小结:综合上所述五大优势,随着全球大型数据中心对建设周期、建置成本、运维费用、灵活扩容、高密度、智能化、低能耗的要求越来越高,模块化数据中心作为新一代数据中心的解决方案将成为未来数据中心的发展趋势。
]]>
一、数据中心建筑的自身绿化
绿色数据中心应该参照什么设计标准,业界尚未有公认标准,但有一定经验和共识。在数据中心建设初期,对建筑自身的环保和节能考虑,是迈向绿色环保的第一步。在数据中心机房的基础建设阶段,机房设计要做整体保温处理方案,如隔热、隔音、保温、防辐射、屏蔽等;同时避免使用有害、有害、易挥发、易老化变形的建筑材料。
首先,在设计上要考虑隔热、保温和防止辐射。常用的措施有,机房区的建筑物外墙均不设外窗,以减少太阳辐射热进入机房,减少房间的热损耗。还有,建筑外墙结构采用高效率保温隔热材料和设计,以减少数据中心机房冷量损失;在建筑内墙体、楼面采用保温隔热设计。这些措施,都可以较好的减少数据中心机房与外界的热交换,节约能耗。在隐蔽工程中应该注意,当竖井通过楼层时,避免电力线干扰通信传输,尽量保持间距50~60cm。机房采用15~30cm活动地板,合理有效地设计通风管道。
其次,在材料的选择上,限制有害材料的选用。在外墙体,避免使用吸光材料或含有毒的塑料装修材料。尤其在机房内部,绿色和环保的要求极为严格。吊顶和墙面装修材料和构架应使用阻燃型装修材料,表面要经过阻燃涂覆处理;机房地板优先使用防静电活动地板;机房内部采用隔音、防尘的双层合金玻璃窗,配遮光窗帘。机房内采用节能照明灯具,合理考虑照明、空调和湿度设备的配置关系。
再有,机房平面布局注重功能区合理划分。机房内各个系统的建设要依托于建筑环境中,受到机房建筑结构、平面布局这些因素的制约,如建筑层高、形状、面积等。数据中心机房主体建筑平面布局注重功能性设计,建筑造型设计以简单实用为目标。避免因设计缺陷而导致材料浪费或能耗增高。
二、机房内设备、设施合理布置
数据中心机房内设置摆放着几十台、甚至上百台服务器,以及大量磁盘阵列等设备,同时要把这些设备通过网络级联起来,并且还有用协同工作软件和设备把它们管理起来,这就有可能造成设备众多、效率低下、占地空间大的现象,机房的供电、静音、空调、散热等问题都一一显示出来机房内部的设备。如何提高数据中心的效能、降低电力损耗、减少占地空间和提高集约化水平是一项系统工程。
在满足系统可靠性的前提下,合理确定机房等级和系统配置,可以降低投资,减少能源消耗。在设备的合理布置上,主要涉及IT设备、机柜以及一些辅助设备和设施。
1.IT设备的摆放
随着刀片式服务器的产生,它们的摆放位置至关重要。如果将高功率负载和高密度、发热量大的服务器组合摆放在一个机柜内,这样便会出现一个高密设备度群,形成了一个巨大的发热群体,最容易导致数据中心的局部过热现象。面对这样问题,可以将这些高功率设备和高密度服务器均分在每个机柜内,这样就不会出现高功率高密度设备群,也无法形成数据中心的热点和冷却的难点,将降低制冷设备运行费用和采购费用。
2.机柜的摆放
以往在机柜布局中,人们为了美观和便于观察,常常会将所有的机柜朝同一个方向摆放。如果按照这种摆放方式,机柜盲板有效阻挡冷热空气的效果将大打折扣。正确的摆放方式应该是将服务器机柜面对面或背对背的摆放方式摆放,这样变形成了冷风通道和热风通道,机柜之间的冷热风不会混合在一起,形成短路气流,有效提到制冷效果,保护好冷热通道不被破坏。即当机柜内或机架上的设备为前进风/后出风方式冷却时,机柜或机架的布置宜采用面对面、背对背方式。
3.空调和制冷设备
目前,冷却问题已经成为数据中心计算能力的首要制约因素。对此,大部分用户都选择“添加更精密的机房专用空调设备、架空地板/加大出风口地板通风量、额外空调配置、添加排风装置”等手段来解决散热困扰,这样即花费了大量资源,而实际上,却忽略掉了一些容易实施、代价非常小的措施,如在机柜内部应用几十元的导流板、封闭和隔离热通道、冷热通道设置等。
因此,在具体应用中,地面采用防静电活动地板,架空30cm。房间应有专用空调,并在中间有铝合金隔断等。而在空调的选择上,大型机房宜采用水冷冷水机组空调系统,空调系统可采用电制冷与自然冷却相结合的方式。此外,针对机柜的冷却方式,液冷系统(LCP)也渐成为打造绿色机房的佳选。
4.电源设备和照明设施
针对数据中心机房,UPS等电源系统应该采用节省空间的紧凑式设计,具有内置旁路维护开关以及可扩展的电池,尽量降低用户的总体拥有成本。主机房和辅助区内的主要照明光源应采用高效节能荧光灯(安装控制器或定时器),灯具应采用分区、分组的控制措施。这可以直接节约照明费用,并节约冷却费用。
另外,还要多说一条选型上的建议。在机房显示设备方面,传统的CRT显示设备正被LCD显示设备替代。而LCD还不是最节能的显示设备,比如LED和OLED就比其更节能,当有电流通过时,这些有机材料就会发光。而且OLED显示屏能够显著节省电能,耗电量可做到LCD的1/6,机房如能采用这样的显示器无疑能更绿色。
5.辅助和配套设施
数据中心要建设专用的送风通道。数据中心的设备由于能耗大,发热量也大,下送风方式效果最好,因此必须在机房设置地板,建立专用的下送风通道。设备间的室温应保持在摄氏15度至30度之间,相对湿度应保持在45%至65%之间。设备间应安装符合法规要求的消防系统,应使用防火防盗门、至少能耐火1小时的防火墙。
三、全面优化机房
绿色应该体现在通过科学的机房配置建设设计或改善,来形成动力环境最优化的配置,实现初始投入最小化。在保障机房设备稳定运营的同时,达到节能减耗。同时服务器、网络存储等设备要实现最大化的效能比。
这不仅仅要求从数据中心的设备和应用层面来进行优化,还需要从机房、供电等周边环境来改善数据中心能耗问题。绿色数据中心建设是一个系统工程,它不仅依仗着IT技术发展的驱动,而且也和建筑、建筑技术发展有关。当我们看到了希望和前途的同时,也要认识到绿色数据中心的建设任重道远。
]]>没有一种单一的“良药”能完全解决当前数据中心大幅增长的能耗成本的问题,只有通过综合治理才能收到丰厚的成效。因此,客户需要选择一个可提供完整的解决方案的服务器制造商或数据中心顾问。请注意,解决能源效率问题,要强调数据中心内全部的电源和散热架构,小到微处理器芯片大到为数据中心提供散热的空调系统。
从芯片开始
客户必须要确定能够从低功耗的处理器中获益。另外,2.5英寸的硬盘驱动器也是必需的,因为其耗电量仅仅是3.5寸硬盘驱动器的一半。低功耗存储器作为有效的供电设备在降低能源消耗上也非常有利,使用这些设备的惠普节能服务器或刀片可以降低15%到36%的电源消耗。
虚拟化
虚拟化可通过整合服务器和存储设备的方式节省能源。一些数据中心希望可以通过虚拟化节省其30%到40%的电费开支。对服务器虚拟化的原理是:客户可将四个20%运行效率的服务器合并成一个80%运行效率的服务器。尽管这个虚拟的服务器中的处理器需要消耗更多的电力,但处理器的耗电量仅为服务器耗电量的30%。所以80%的利用率增长却仅产生了30%的处理器耗电量。
虚拟化服务器可使其他运转中的硬盘驱动器、主板、I/O插槽、存储器、风扇和电源使用服务器中70%的剩余电源。同时,一个80%运行的服务器电源比20%运行的服务器工作效率更高。一旦出现较高的处理能力需求,这种独特的处理过程所需的硬盘驱动的数量就会相应增加,而存储产品也有新的解决办法来降低所需的硬盘驱动器的数量。但需要注意的是,当需求出现时,必须相应增加实际的存储设备。
电源
尽管有些IT经理们提到了采用直流电的解决方案,实际上有效利用更为普遍的交流电来配置电源,也是有可能解决这一问题的。在数据中心内部,诸如变压器、配电单元和无间断电源供应等,都可以对节电产生积极或消极的作用。
米兰官方合作彩票软件也是一个可以被用来降低电源消耗的有效工具。处理器供应商都拥有各自的电力节流装置,可以降低未被完全利用的处理器的电源损耗。大多数服务器制造商都采用了这项技术,通常还会增加一些设备供IT经理们进行监测、衡量、控制并降低在服务器或刀片设备中的电源消耗。
刀片
刀片是能源节约的“排头兵”。尽管结构更密集,但其独特的结构可以显著节省开支。在最近发布的2007年SineNomine报告中,将HPBladeSystem刀片服务器与拥有同等运算能力的机架式服务器进行比较,令人吃惊的是,HPBladeSystem刀片服务器比机架式服务器少消耗36%的电力。这是由于该产品的“主动散热”式风扇,可根据散热要求调节其运转速度,能够在正确的位置提供适当的散热气流流量。
除了服务器和刀片,需要针对其能源利用效率对数据中心和基础设施进行密切的检查。与一些网络UPS的工作原理类似,由于采用将电流从交流电转换成直流电再转成交流电的形式,增强气流型机柜、电源分配机架和三相UPS可以有效地降低电源损耗。
电源分配机架减少了混乱的电缆敷设现象,使气流能够在更狭窄的空间更好地流动。客户如果使用单独的480伏三相机架的PDU,可能根本不需要再用变压器将电流转换成277伏再输送给服务器。如果客户不是电源配置效率方面的奇才,它真正所需要的是一个可以提供正确设备和所需产品的服务器供应商。
大型空气“散热”装置
由于某些新的革命性科技,客户现在能够增加或减少冷气流的流量,将气流路径最优化。作为唯一的能够提供降低散热装置气流量的IT供应商之一,惠普在年初推出了动态智能散热(DynamicSmartCooling,DSC)技术。DSC为数据中心提供积极的散热功能,并持续做出调整。
大多数客户的数据中心看起来像冰箱一样,这实际说明,系统提供了过多的散热气流,同时也造成了能源的浪费。DSC针对最需要的位置提供集中的制冷,避免了气流的分散,因此净节能量非常显著。使用在空气调节单元利用液体制冷的数据中心,IT经理们可以在IT设备散热方面节省最高45%的支出。
无可否认的是,并非每个方案对客户来说都是合适的。小型客户更青睐实施便捷的方案,一些企业级的数据中心则希望通过采用动态智能散热(DynamicSmartCooling)技术,获得更大的节省机会。无论何种情况,客户不能指望仅依靠诸如高效能服务器等某一个单独的设备,就能使节约最大化,而是需要与一个能够提供从芯片到散热路径的最全面的解决方案的IT厂商进行合作。
]]>可能你关闭服务器,有些人会抱怨,这些部门就会考虑,应该怎么样把那些较少使用部门,被虚拟化,通过虚拟化以后,虚拟化也是一个很重要的手段,现在是很热门的一些话题,通过虚拟化,我们可以增加硬件利用率的5到20倍,这是个非常明显的效果,而且它可以降低能源消耗服务器的数量,因为你虚拟化以后,有些服务器利用率很低,把一些服务器就给关闭掉,这样的话,就提高应有服务器的使用,这个是两方面的效果,是非常明显的,这是第二点。
第三个就是要合并计算,尽可能要整合服务器,存储和网络,另外比如说我们还有数据的量非常大,海量的数据不再少数,那么这个海量数据对存储的耗电也是非常巨大的,这样的话,我们就得考虑用存储怎么给虚拟化,另外,我们利用存储的非常先进的技术,比如说存储数据删除,这样的先进技术,让它尽量少存储空间,提高存储空间的利用效率,并且我们通过这些,就可以减少能源10%到20%,所以这样的话,刚才我说的整合存储,对不同的负载使用率分层存储,在线离线或者是磁盘的,磁带的这种存储。
第四点就是说必须启用CPU的能源管理功能。这个也是非常重要的,CPU化,我们就是通过切换来优化能源的消耗,现在我们的统计,大部分的CPU利用率都很低,所以的话,你别说一个应用,一个服务器,然后再用整个CPU的话,这样的话就造成很大的浪费,这样的话我们应该加以考虑。
第五点就是利用高效率的IT设备来供电的装置,把一些原来老的设备,给它淘汰掉,这样的话,高效率的UPS的能源的供应可以占80%以上,原来的低效率的UPS效率很低,这样的话,无形中就浪费了很多电源,所以的话,就注意电源技术的改造,这是第五点。
我们谈第六点,第六点就是比较重要的,因为时间关系,有的就不展开谈,第六点就是使用高效率的不间断供电装置,就是UPS的使用。第七点就是为服务器采用,电压稍微高一点,这个对我们来说不是特别重要,但是对于一些使用110伏的特别重要,一般我们的电力要不要低于200左右,但是我们可以把电压提高到230左右,这也是一个很重要的方面。
第八点采取最佳的实践来提高制冷的效率,比如说有一些空调,它很耗电,但是它的制冷效率不好,或者是你在数据中心的话,你的服务器的位置摆设不合理,这样的话,比如说有一些东西并不是要花很多钱,比如说你在服务器中间加一些隔板,就可以把它热的。
第九点就是评价你数据中心的利用率和效率,要淘汰未使用的一些软件应用,不要什么都放在内流,重点要采纳额外CPU效率的软件,就是能够充分利用CPU的软件。
第十要有限行动,降低你数据中心能源的需求,凡是牵涉到需要及时解决的节约能源行动要马上执行,不要老是耽误,或者是往后滞后很长时间,所以这些,我们可以充分把我们现在的数据中心,你在这方面做好的话,你的节能应该是提高了很大一步。
]]>云计算部署的持续增长,以及由物联网、5G、工业4.0推动大数据的加速,正在给欧洲的数据中心容量带来压力。房地产咨询机构世邦魏理仕(CBRE)公司表示,2019年是欧洲数据中心投资迄今最大的一次,其法兰克福、伦敦、阿姆斯特丹、巴黎(FLAP)市场同比增长25%。并预测,在超大规模交易的推动下,2020年的规模将更大。但是大型的成熟市场能否继续支持这一增长?
超大规模数据中心运营商和大型企业客户应该仔细地研究他们在数据中心进行投资的地方,特别是能源问题。北欧地区具有至关重要的能源优势,任何希望查找数据中心的企业都应了解:成本、可用性和可持续性。无论是从商业角度还是从生态角度来看,将数据放置在功能强大的地方越来越有意义。
绿色电源
鉴于欧洲乃至世界上一些最低的能源价格,在北欧数据中心定位大量数据,并计算负载具有商业意义。根据欧盟统计局的数据,挪威的能源成本在欧洲各国最低,为每千瓦时0.06欧元,而德国是这一数字的两倍多(每千瓦时0.15欧元)。瑞典和丹麦也是电价最低的国家,均低于每千瓦时0.1欧元。借助当今超大规模数据中心的强大功能,这些低费率每年可节省数百万欧元。
但是成本甚至可能不是最紧迫的问题。超大规模的客户和企业需要知道他们可以在任何地方扩展业务以适应增长。可悲的是,对于欧洲大部分地区来说,这变得越来越困难。根本没有可满足不断增长的能源需求的可用发电能力。在北欧这不是问题。该地区不仅受益于丰富的可再生能源,而且其政府已承诺投资于新型的可持续发电和配电。
至关重要的是,这种能源是最环保色的。随着公众、政治和客户的压力,不仅要提高数据中心的可持续性,还要审查它们所支持的数字服务。达到零碳净值的道德和声誉压力将越来越大,在北欧地区建立数据中心,同时结合凉爽的气候和世界上最清洁的能源,将有助于应对这一重大挑战。
但是北欧地区距离人口众多的地方太远的地方就没有有用了吗?网络延迟不会破坏许多数字服务的商业案例吗?一点也不。有许多站点可以提供为奥斯陆、斯德哥尔摩和斯德哥尔摩的主要城市人口以及二级城市提供服务所需的“边缘”设施。这些数据中心是欧洲网络连接性最好的站点之一,通过连接整个欧洲的多个运营商进行光纤连接。计划中的新光纤连接将很快为通往美国和中国的高速线路创造更多机会。
更重要的是,对于许多新兴的数据中心高密度用户而言,网络延迟并不总是一个问题。高性能计算和人工智能是强大的动力消耗者,并且日益成为跨行业数字化转型的核心。但是繁重的数据处理和分析很少必须靠近客户或最终用户。将这些资源放在低成本、低碳能源充足的数据设施中是有道理的,这正在使北欧地区市场产生强烈的兴趣。
最后,在当今的高速增长时期,时间至关重要。任何客户(无论是超大型数据中心运营商还是企业客户)都希望尽快使他们的数据中心投入运营,以满足需求、转变业务并为客户提供服务。进入市场的速度取决于许多因素,包括土地的可用性、当地的政治和法规环境以及计划、建设和管理新设施的熟练人力资源的可用性。世界银行对经商便利性国家进行了评级,丹麦、挪威、瑞典和芬兰均进入前20名(分别为第3、第7、第12和第17名)。
显然,欧洲市场不只是法兰克福、伦敦、阿姆斯特丹、巴黎(FLAP)市场,而且定位下一个数据中心的最佳选择可能是在低成本、低碳的电力容易获得的地方建设和运营。
]]>一、建立完善的巡查和维护、保养、应急处理等机制。
二、采用与时俱进的动环监控、报警系统。以减少误报、漏报的发生。
三、相关人员的责任心、行动力至关重要。毕竟人才是最重要的因素:才是解决、处理问题的关键。扁鹊大哥擅长的是“事前控制”、“治未病”、防患于未然、无为而治才是解决问题的最好方式或者最高境界。借用一位老运维人士的话:宁可默默无闻,不当救灾英雄。
]]>模块化设计遵循“按需供应、灵活扩展”的需求,使数据中心的使用效率尽可能提高,我们可以看到,随着移动性的需求或临时性的容量需求增加的时候,也有更多的行业用户选择了模块化数据中心设计,模块化设计的趋势日益增强是毋庸置疑。
]]>数据中心已经从集中式、本地运营的基础设施发展到使用公共云和私有云提供商、托管以及其他功能的云平台。随着5G实现超连接性,组织将更加依赖其数据中心的边缘设备。
当更多设备和用户进入网络时,就会出现新的漏洞和威胁。随着流量的增长,满足带宽需求变得更加困难。将这些远程管理的设备和边缘处理添加到组织的数据中心意味着需要更多的基础设施管理任务,并需要解决一系列全新问题。
]]>传统的数据中心设计包括具有单独服务器层的单独存储孤岛以及横跨计算和存储孤岛的专用网络。这在前云时代已经奏效,但是对于云时代来说太僵化了。Nutanix产品营销副总裁GregSmith说:“IT团队需要数周或数月的时间来提供新的基础架构,这样开发团队才能生产新的应用程序并迅速推向市场,这是站不住脚的。
他说:“HCI从根本上简化了数据中心架构和操作,减少了管理数据和交付应用程序的时间和费用。”
2)云整合
HCI软件(例如来自Nutanix或VMware的HCI软件)以相同的方式部署在客户的数据中心和云实例中。它在云中的裸机实例上运行的方式与在数据中心中完全相同。对于想要构建混合云的公司来说,“HCI”是最好的基础。他们可以在数据中心部署应用程序,然后将其与公共云融合。”Smith说。
他补充说:“由于两端都是相同的,因此我可以让一个团队管理端到端的混合云,并有信心在我的私有云中运行的任何应用程序也将在该公共云环境中运行。”
3)从小处开始,从大处发展的能力
“HCI使您可以将计算,网络和存储整合到一个盒子中,并且可以快速,轻松地发展该解决方案,而不会造成大量停机,”位于加拿大安大略省贝尔维尔的黑斯廷斯爱德华王子公共健康公司的IT系统经理TomLockhart说。
在传统方法中,必须分别安装和配置多个硬件,包括服务器,光纤通道交换机,基于主机的适配器和管理程序。借助超融合,一切都由软件定义。HCI使用服务器中的存储,软件几乎完全自动配置并检测硬件,从而建立计算,存储和网络之间的连接。
“一旦我们承担了工作量,[客户]通常会获得很好的体验。几个月后,他们尝试了另一种工作负载,然后开始将其从数据中心扩展到远程站点。”戴尔HCI产品管理副总裁ChadDunn说。
“无论是从40TB的数据还是40PB的数据,它们都可以从小规模开始,然后逐渐变大,但也具有一致的操作模型经验,无论每个站点在1000个站点中有1000个节点还是三个节点。他们拥有一致的软件更新,因为它们是相同的工具集,因此无需重新培训人员。”Dunn补充说。
4)减少占地面积
从小处着手,客户发现他们可以将硬件堆栈减少到所需的大小,而不是过度配置过多的容量。摆脱孤立的方法还允许用户消除某些硬件。
钢铁制造商USS-POSCOIndustries的自动化工程师JoshGoodall表示,他的公司之所以部署HCI,主要是因为它具有处理拉伸群集的能力,该群集中的硬件群集位于两个物理位置,但相互连接在一起。这主要是用作备份,因此,如果一个站点发生故障,则另一个可以接管工作负载。在此过程中,USS-POSCO摆脱了许多昂贵的硬件和软件。“我们取消了多个CPU[软件]许可,我们从其他站点中删除了SAN,不需要SRM[站点恢复管理]软件,也不需要Commvault许可。每年的许可证续订节省了25,000至30,000美元,”Goodall说。
5)不需要特殊技能
要运行传统的三层环境,公司需要计算,存储和网络方面的专家。借助HCI,公司可以由一般技术顾问和员工而不是更昂贵的专家来管理环境。
Smith说:“HCI增强了存储多面手的能力。”“您不必雇用存储专家,网络专家。每个人都必须拥有基础架构,但是与在这三种技能下需要深入专业知识的典型情况相比,它们使基础架构的实际维护容易得多。
哈斯廷斯爱德华王子公共健康公司的洛克哈特说,与传统基础架构相比,添加新的计算/存储/网络也要快得多。他说:“对服务器集群的升级是在20分钟内没有停机时间,而停机时间是数小时,而使用传统方法则导致服务中断。”
“您可以不必专注于基础架构,而可以增加在工作负载上花费的时间和资源,从而为您的业务增添价值。当您不必担心基础架构时,您可以花更多的时间在为客户增加价值的事情上。”
6)更快的灾难恢复
超融合产品的关键要素是其备份,恢复,数据保护和重复数据删除功能,以及对其进行全面检查的分析。灾难恢复组件通过单个仪表板进行管理,HCI不仅监视本地存储,还监视云存储资源。使用重复数据删除,压缩率高达55:1,并且备份可以在几分钟内完成。
7)超融合分析
HCI产品随附大量分析软件,用于监视工作负载并查找资源限制。监视软件被合并到系统性能(包括负面影响的性能)的单个仪表板视图中。
Hastings最近在Windows7迁移中遇到了问题,但是HCI模型使获取性能信息变得容易。洛克哈特说:“这表明工作负载(取决于一天中的时间)耗尽了内存,并且有过多的CPU排队和分页。”“我们在一个小时内就完成了整个[问题]的记录。很容易确定问题出在哪里。如果没有这种单一窗格的视图,则可能需要更长的时间。”
8)减少管理网络,存储资源的时间
Goodall说,他过去通常将多达50%的时间用于存储问题和备份矩阵。现在他可能花费20%的时间来处理它,大部分时间用于解决和解决遗留系统。而且他的应用程序在HCI下表现更好。“我们的SQL数据库没有任何问题。如果有的话,由于转向完整的固态硬盘(而不是硬盘)和数据重复数据删除,我们已经看到了巨大的性能提升,从而减少了环境中的读写。”
]]>①数据中心datacenter容纳机房及其支持区域的一个建筑物或一个建筑物的一部分。
②总部级数据中心机房headquarters-leveldatacenterroom由总部统一规划建设,主要承载总部统一建设,集中部署的信息系统和灾难恢复信息系统的机房
③区域级数据中心机房regionaldatacenterroom由总部统一规划建设,主要承载本区域各企事业单位和分支机构接入中国石油骨干网络,承载总部统一建设、分布部署的信息系统的机房。
④企事业单位级数据中心机房localdatacenterroom由各企事业单位自行建设,承载本单位内部信息系统运行和网络接入的机房。
⑤A级数据中心机房classAdatacenterroom按容错系统配置,在系统运行期间,其场地设施不应因为操作失误,设备故障,外电源中断,维护和检修而导致信息系统运行中断。
⑥B级数据中心机房classBdatacenterroom按冗余要求配置,在系统运行期间,其场地在冗余能力范围内,不应因设备故障而导致信息系统运行中断。
⑦C级数据中心机房classCdatacenterroom按基本需求配置,在场地设施正常运行情况下,应保证信息系统运行不中断。
]]>2020年,将首次引入使用5G的超高速,低延迟机器对机器通信的应用程序。这些新产品,如高分辨率云计算游戏、工业物联网过程控制和针对员工的现场增强现实指导,将证明5G可以释放的价值。
尽管预计此类应用不会在明年广泛部署,但它们的潜力将开始重塑包括数据中心市场在内的行业。例如,凭借5G提供不到10毫秒的延迟的能力,部署低延迟5G应用将很快变得更加容易,而到2020年,数据中心将为它们的到来做好准备。
为了使低延迟应用程序成功,不仅需要5G,还需要使用边缘数据中心等边缘计算技术在靠近其源的位置处理这些应用程序。
这显著减少了网络延迟,并使低延迟5G应用程序完全实现其承诺。因此,人们将在2020年看到更多数据中心迁移到边缘计算,以使这些应用程序实现。
2.人工智能将推动数据中心采用新技术
机器学习、深度学习和其他人工智能技术的部署现在已经成为主流,它们为人们每天使用的许多云计算服务提供动力。
随着企业越来越多地构建和部署人工智能模型,预计明年人工智能的使用将加速。这将创造新的服务和产生新的商业见解。如果数据中心运营商希望让这些用户满意,那么他们就需要做出回应,不仅要在其核心拥有更快的网络和服务器,还要在边缘部署更接近最终用户的人工智能模型。
虽然这对数据中心运营商来说是一个挑战,但同时也是一个机遇:如果他们能够聪明地采用正确的网络、计算和边缘数据中心技术来支持人工智能,那么将有更多的客户。这就是在2020年希望数据中心所有者和运营商越来越关注如何为客户提供支持人工智能的云计算服务所需性能的原因。
3.数据中心运营商将在2020年大量依靠人工智能来提高员工效率
由于劳动力市场紧张,需求不断增长,并且越来越需要在一级存储区域之外建立边缘计算中心以寻找技术人才,因此数据中心运营商在新的一年招募和留住所需人员时将面临挑战。
鉴于此,可以期望数据中心运营商增加对人工智能和其他技术的使用,以最大程度地提高员工的工作效率,例如,利用人工智能技术指导服务技术人员完成任务的AR头戴式耳机。
同时,数据中心设备提供商将使用人工智能使其产品易于安装和易于使用,从而使数据中心运营商可以用更少的人力来做更多的事情。
等待采用这些新的人工智能功能的数据中心运营商可能会遇到增长缓慢的问题,因为他们无法找到或留住所需的人员来提供在当今竞争激烈的市场中客户需要的所有服务。
为数据中心的下一阶段做好准备
到2020年,5G的首批应用将在数据中心找到自己的方式,而机器学习和其他人工智能技术的部署将创造新的学习和做事方式。
在新的一年中,这意味着数据中心提供商将有更多的机会来发展和增强其业务。虽然这些技术的好处可能至少要花费几年时间才能实现,但现在将这些技术纳入其业务战略的数据中心公司将是最有可能在未来获得好处的公司。
]]>一旦机房动力、环境设备或者服务器系统、网络等出现故障,就会造成服务器设备、网络设备故障或者服务器系统资源、网络资源等不能提供实时数据服务,当严重事故时,会造成机房内设备报废,系统以及数据无法恢复,造成长时间系统瘫痪,导致业务中断。
因此,为了保证计算机系统安全可靠工作,对机房里面环境设备及系统主机进行实时监视和有效管理是极其必要的。
]]>