服务器技术
『壹』 常见的服务器存储技术有哪几种
磁盘阵列(Rendant Arrays of Inexpensive Disks,RAID),是利用数组方式来作磁盘组,配合数据分散排列的设计,提升数据的安全性。磁盘阵列是由很多价格较便宜的磁盘,组合成一个容量巨大的磁盘组,利用个别磁盘提供数据所产生加成效果提升整个磁盘系统效能。利用这项技术,将数据切割成许多区段,分别存放在各个硬盘上。磁盘阵列还能利用同位检查(Parity Check)的观念,在数组中任一颗硬盘故障时,仍可读出数据,在数据重构时,将数据经计算后重新置入新硬盘中。
NAS(Network Attached Storage:网络附属存储)是一种将分布、独立的数据整合为大型、集中化管理的数据中心,以便于对不同主机和应用服务器进行访问的技术。按字面简单说就是连接在网络上,具备资料存储功能的装置,因此也称为“网络存储器”。它是一种专用数据存储服务器。它以数据为中心,将存储设备与服务器彻底分离,集中管理数据,从而释放带宽、提高性能、降低总拥有成本、保护投资。其成本远远低于使用服务器存储,而效率却远远高于后者。
存储区域网络(SAN)是一种高速网络或子网络,提供在计算机与存储系统之间的数据传输。存储设备是指一张或多张用以存储计算机数据的磁盘设备。一个 SAN 网络由负责网络连接的通信结构、负责组织连接的管理层、存储部件以及计算机系统构成,从而保证数据传输的安全性和力度。
典型的 SAN 是一个企业整个计算机网络资源的一部分。通常 SAN 与其它计算资源紧密集群来实现远程备份和档案存储过程。SAN 支持磁盘镜像技术(disk mirroring)、备份与恢复(backup and restore)、档案数据的存档和检索、存储设备间的数据迁移以及网络中不同服务器间的数据共享等功能。此外 SAN 还可以用于合并子网和网络附接存储(NAS:network-attached storage)系统。
『贰』 到哪些(服务器)技术
服务器技术,一般有几个方面
机房的线路和技术实力+技术维护时间
服务商的技术实力+技术维护时间
这些决定了服务器的硬件好坏和线路的快慢,售后技术必须24小时值班
所以选择服务器,需要看看服务商的技术实力服务器租用
『叁』 什么是服务器
在香港和台湾称为伺服器是指:
一个管理资源并为用户提供服务的计算机软件,通常分为文件服务器(能使用户在其它计算机存取文件),数据库服务器和应用程序服务器。
定义
有时,这两种定义会引起混淆,如Web服务器。它可能是指用于网站的计算机,也可能是指像Apache这样的软件,运行在这样的计算机上以管理网页组件和回应网页浏览器的请求。
服务器硬件
服务器作为硬件来说,通常是指那些具有较高计算能力,能够提供给多个用户使用的硬件。服务器与PC机不同,PC机通常只为一个用户服务。 服务器与主机不同,主机是通过提供终端给用户使用的,服务器是通过网络提供给客户端用户使用的。
根据不同的计算能力,服务器又分为工作组级服务器,部门级服务器和企业级 服务器操作系统是指运行在服务器硬件上的操作系统。服务器操作系统需要管理和充分利用服务器硬件的计算能力并提供给服务器硬件上的软件使用。
常见的服务器作业系统有FreeBSD, SCO OPENSERVER ,OpenBSD, NetBSD, SUN Solaris, Linux, Windows NT/2000,Mac OS X Server等。
其中以Linux,Windows NT/2000/Server 2003,SOLARIS最为常见,Mac OS X Server是新兴力量。其中FreeBSD, OpenBSD, NetBSD, SUN solaris, Linux, Mac OS X Server等是UNIX操作系统的衍生版本。
服务器软件
服务器软件的定义如前面所述,服务器软件工作在客户端-服务器或浏览器-服务器的方式,
有很多形式的服务器,常用的包括:
文件服务器 - 如Novell的NetWare
数据库服务器 - 如Oracle数据库服务器, MySQL, PostgreSQL, Microsoft SQL Server等
邮件服务器 - Sendmail, Postfix, Qmail, Microsoft Exchange,Lotus Domino等
Web服务器 - 如Apache, thttpd, 微软的IIS等
FTP服务器 - Pureftpd, Proftpd, WU-ftpd, Serv-U等
应用服务器 - 如Bea公司的WebLogic,JBoss
『肆』 服务器工程师都需要掌握哪些技术知识
你是偏硬件还是偏软件?
如果是偏硬件需要掌握:服务器、网络设备、存储设备等;
如果是偏软件需要掌握:操作系统、网设配置、存储配置等;
『伍』 服务器开发需要学习什么
服务器所用到的知识:TCP/UDP,最基本的;
并发——你可以选择使用select、poll,或者是多线程、多进程:如果你使用多线程,那么就必须使用同步技术——信号量、互斥体、条件变量的一种或几种,并且对于多线程技术,你还需要考虑使用进行线程分离与合并;
如果你使用了多进程,那么同步技术就不是你需要考虑的了,你需要考虑的是进程相关的问题了,你是使用fork还是vfork,你该如何处理客户端的请求,如何处理客户端断开连接后保证能够处理完数据并且没有僵尸进程产生,你还需要考虑高并发的问题;
你发送接受数据的时候,采用何种方式,是阻塞的还是非阻塞的,还有连接超时、重传等问题
你是选择TCP还是UDP,如果选择UDP你可得忙了,需要你自己去进行重传验证,模拟TCP的三次握手,保证数据不会丢失,保证数据的有序性;还有其他很多需要你考虑的,以上都是指在Linux下的C++,本人对windows C++不了解。
推荐书目:UNIX高级环境编程,UNIX网络编程,卷一。C++只不过是你使用这些技术的方式,不管你使用C还是C++,你都可以使用从这两本书中学习到很多有用的知识,但是不能保证你就可以写出高质量的服务器程序。
『陆』 服务器中的冗余技术包括哪些
服务器中常用的冗余技术有:数据冗余、网卡冗余、电源冗余、风扇冗余、服务器冗余。
数据冗余---是指系统中的任何单一部件损坏都不会造成硬盘中的数据丢失;
网卡冗余---是指系统中的任何一网卡损坏都不会造成网络服务中断;
风扇冗余---是指系统中的任何一风扇损坏都不会造成系统温度过高而死机;
电源冗余---是指系统中的任何一电源损坏或者故障都不会造成服务器停机;
服务器冗余---是指双机系统(双机热备或集群)中的任何一台服务器故障都不会造成系统崩溃和服务器停机;
『柒』 服务器都有哪些主要的技术指标
你说的那个指标抄是访问许可有每袭服务器和每客户机两种许可是要购买的 一般来说如果网络中只有一台服务器把许可证放在服务器端 有一台以上的服务器把许可证放在服务器端我们可以从这几个方面来衡量服务器是否达到了其设计目的;R:Reliability——可靠性;A:Availability——可用性;S:Scalability——可扩展性;U:Usability——易用性; M:Manageability——可管理性,即服务器的RASUM衡量标准。
『捌』 服务器的优点及技术参数
服务器
服务器是指在网络环境下运行相应的应用软件,为网上用户提供共享信息资源和各种服务的一种高性能计算机,英文名称叫做SERVER。
服务器既然是一种高性能的计算机,它的构成肯定就与我们平常所用的电脑(PC)有很多相似之处,诸如有CPU(中央处理器)、内存、硬盘、各种总线等等,只不过它是能够提供各种共享服务(网络、Web应用、数据库、文件、打印等)以及其他方面的高性能应用,它的高性能主要体现在高速度的运算能力、长时间的可靠运行、强大的外部数据吞吐能力等方面, 是网络的中枢和信息化的核心。由于服务器是针对具体的网络应用特别制定的,因而服务器又与微机(普通PC)在处理能力、稳定性、可靠性、安全性、可扩展性、可管理性等方面存在很大的区别。而最大的差异就是在多用户多任务环境下的可靠性上。用PC机当作服务器的用户一定都曾经历过突然的停机、意外的网络中断、不时的丢失存储数据等事件,这都是因为PC机的设计制造从来没有保证过多用户多任务环境下的可靠性,而一旦发生严重故障,其所带来的经济损失将是难以预料的。但一台服务器所面对的是整个网络的用户,需要7X24小时不间断工作,所以它必须具有极高的稳定性,另一方面,为了实现高速以满足众多用户的需求,服务器通过采用对称多处理器(SMP)安装、插入大量的高速内存来保证工作。它的主板可以同时安装几个甚至几十、上百个CPU(服务器所用CPU也不是普通的CPU,是厂商专门为服务器开发生产的)。内存方面当然也不一样,无论在内存容量,还是性能、技术等方面都有根本的不同。另外,服务器为了保证足够的安全性,还采用了大量普通电脑没有的技术,如冗余技术、系统备份、在线诊断技术、故障预报警技术、内存纠错技术、热插拔技术和远程诊断技术等等,使绝大多数故障能够在不停机的情况下得到及时的修复,具有极强的可管理性(manability)。
服务器与PC的对比 通常,从所采用的CPU(中央处理器)来看,我们把服务器主要分为两类构架:
一部分是IA(Intel Architecture,Intel架构)架构服务器,又称CISC(Complex Instruction Set Computer复杂指令集)架构服务器,即通常我们所讲的PC服务器,它是基于PC机体系结构,使用Intel或与其兼容的处理器芯片的服务器,如联想的万全系列服务器,HP公司的Netserver系列服务器等。这类以"小、巧、稳"为特点的IA架构服务器凭借可靠的性能、低廉的价格,得到了更为广泛的应用,在互联网和局域网内更多的完成文件服务、打印服务、通讯服务、WEB服务、电子邮件服务、数据库服务、应用服务等主要应用,一般应用在中小公司机构或大企业的分支机构。目前在IA架构的服务器中全部采用Intel(英特尔)公司生产的CPU,从Intel生产CPU的历史来看,可以划分成两大系列:早期的80x86系列及现在的Pentium系列。早期的80x86系列可以包括:8088、8086、80286、80386、80486。自80486之后,Intel对自己的产品进行了重新命名,并进行注册,因此80486以后的产品形成了Pentium(奔腾)系列的CPU。Pentium系列的CPU目前包括:Pentium、Pentium MMX、Pentium Pro、PII、PII Xeon(至强)、PIII、PIII Xeon、P4 Xeon、Celeron2(赛扬)等。
另一部分是比IA服务器性能更高的服务器,即RISC(Reced Instruction Set Computing精简指令集)架构服务器,这种RISC型号的CPU一般来讲在我们日常使用的电脑中是根本看不到的,它完全采用了与普通CPU不同的结构。使用RISC芯片并且主要采用UNIX操作系统的服务器,如Sun公司的SPARC、HP(惠普)公司的PA-RISC、DEC公司的Alpha芯片、SGI公司的MIPS等等。这类服务器通常价格都很昂贵,一般应用在证券、银行、邮电、保险等大公司大企业,作为网络的中枢神经,提供高性能的数据等各种服务。
目前,服务器的市场竞争非常激烈,国外有IBM、HP(惠普)、DELL(戴尔)、SUN等著名厂商,国内有联想、浪潮、曙光等一线厂商都提供不同级别的服务器产品,满足不同的用户的需求。
『玖』 什么是服务器加速技术
由于用户急剧增长,获取信息的速度快慢已经成为制约互联网发展的重要因素。尤其随着电子商务的迅速发展,企业的信息中心已经从侧重计算与数据处理的计算中心和侧重网络与数据通讯的网络中心发展成为一个将计算中心与网络中心功能平衡优化的集成一体的数据中心。作为企业电子商务网络的基础核心,数据中心将汇集高性能计算、数据通讯、语音通讯等处理功能于一体,成为支持企业未来电子商务系统应用的必然平台。
但是,作为企业网的心脏,数据中心面临着众多的挑战。扩展性、灵活性、高性能、可靠性、高密度和安全性无一不是数据中心不可或缺的要求,尤其是在数据流急剧增长的时候还要进行持续稳定的运行。很难想象用户会在屡次遇到“Server Too Busy”后还能再次访问这个网站;更难以想象正在进行信用卡支付时遇到掉线会有多么严重的后果。那么,如何解决这个瓶颈问题呢?如何才能切实提高网络的服务质量呢?
显然,传统的网络结构已经不能满足这种高质量的需求。在仅靠不断增加带宽的方式提高访问速度收效甚微的情况下,想切实提高网络服务质量,就需要在现有网络层次结构中专门增加一层,以专门用于提高网络的响应时间。
目前这种用于加速互联网络的产品有许多,代表技术有负载均衡、高速缓存、SSL/XML加速、流量与带宽管理等。目前,此系列产品已经越来越普遍地被各数据中心、ISP、企业网站使用。他们往往分布在应用服务器和路由器/交换机之间,有人称之为“前端基础设施”。
所有这些技术都能改善网络速度、提高服务质量,但机理不同,适用的范围也不尽相同。以下详细介绍各个技术的特点和适用范围。
负载均衡技术
现在互联网上有多少客户?十分钟后客户数目会增长吗?这些问题恐怕谁也回答不了。互联网的快速增长已经使网络服务器面对的访问数量大大增加并且更加不可预知。如今,服务器必须具备提供大量并发访问服务的能力,其处理能力和I/O能力已经成为提供服务的瓶颈。如果客户的增多导致通信量超出了服务器能承受的范围,那么其结果必然是——宕机。
显然,单台服务器有限的性能不可能解决这个问题,一台普通服务器的处理能力只能达到每秒几万个到几十万个请求,无法在一秒钟内处理上百万个甚至更多的请求。但若能将10台这样的服务器组成一个系统,并通过软件技术将所有请求平均分配给所有服务器,那么这个系统就完全拥有每秒钟处理几百万个甚至更多请求的能力。这就是负载均衡最初的基本设计思想。
最早的负载均衡技术是通过DNS来实现的,在DNS中为多个地址配置同一个名字,因而查询这个名字的客户机将得到其中一个地址,从而使得不同的客户访问不同的服务器,达到负载均衡的目的。DNS负载均衡是一种简单而有效的方法,但是它不能区分服务器的差异,也不能反映服务器的当前运行状态。
其实,这种负载均衡的基本设计思想只能算是负载均衡技术的最初应用。现代负载均衡技术除了可以做到合理、平均、实时地均衡系统负载外,还能够确保系统正常运行的高可用性和高可靠性。
负载均衡服务能够平衡服务器群中所有的服务器和应用之间的通信负载,根据实时响应时间进行判断,将任务交由负载最轻的服务器来处理,以实现真正的智能通信管理和最佳的服务器群性能。
假设每个服务器能响应的请求为每秒10万个。如果不采用负载均衡,那么该系统就只能达到每秒10万个的响应,即使采用三台服务器,也有可能在不到每秒30万个响应的时候就会出现某台服务器由于访问量过大而宕机;如果某台服务器出现故障,则可能导致数万个请求不能得到正确的响应。但如果采用负载均衡,不仅当服务器出现故障时可以自动将指向该服务器上的响应分担到其他服务器,还可以在数据量不太大时也将任务分配到各个服务器中,避免出现有些服务器数据量很小而有的已因数据量接近极限导致性能急剧下降的现象。如果数据量超出了服务器的响应能力,只需增加服务器数目就可以平滑升级。也就是说,负载均衡技术不仅可以维持网络系统中负载的均衡分配,还能够维护网络系统的高可用性运行,因而是保证网络系统高性能的重要技术。
现代负载均衡技术通常操作于网络的第四层或第七层。负载均衡器可以根据实际的响应时间制定优先级交付决策,从而实现高性能、智能化流量管理,达到最佳的服务器群性能。采用第七层应用控制还可以减少通信高峰期的错误讯息,因为差错控制和流量管理技术可以侦测到一些错误信息并透明地将会话重定向到另一个服务器,使用户顺利地进行使用。例如,图一中服务器A不可用或者数据库出现错误,错误信息将会返回到负载均衡器上,然后会将客户的访问指向服务器B或者将消息重放到其他数据库中去,整个过程对用户是透明的。
由于采用了负载均衡技术,自动故障恢复得以实现,服务的时间可以延长,24×7可靠性和持续运行成为可能。另外,负载均衡器一般也支持路径外返回模式,即绕过流量分配器,为那些焦急等待大量数据文件请求响应的客户提供更快的响应时间。
在最新的负载均衡产品中,智能化越来越明显。一些智能化的负载均衡器能够侦测到像数据库错误、服务器不可用等信息,从而采取措施使会话恢复和重定向服务器使电子商务能够得以顺利进行。多址负载均衡器可以对客户发来的访问请求进行解析,计算出最佳地址,然后将该地址返回客户,使客户自动连接到对其请求来说最佳的数据中心。
负载均衡技术解决了出现大流量数据时服务器的智能化分配,但统计发现,在网络应用的需求中存在着许多冗余的内容,这些重复的需求占用了大量的网络资源。具体地说,在互联网上80%的用户都在访问20%的热门网站,而在这些热门网站中又有一些热门的内容吸引了绝大多数访问者的注意;对于企业局域网而言,员工所发出的网络指令也存在着很大的重复。以上的情况造成了计算机执行的指令具有很高的重复性,这是仅用负载均衡技术不能解决的。
缓存技术就是基于以上的情况产生的。缓存设备会监视Web请求,检索它们,然后存储为它的对象。后来的用户将直接从本地的缓存设备而不是真正的目标站点获取该对象,从而达到提高响应性能,减少带宽压力的目的。
有效放置的缓存设备可以及时向最终用户传送Web网页,提高Web站点的效率,减少WAN访问费用,甚至可以建立起一道抵御外部黑客攻击的安全防线。因此,不仅对于那些能够迅速地从缓存技术节省下来的费用中盈利的ISP和电信公司,而且对于企业而言,缓存技术也同样具有着越来越大的吸引力。
缓存技术的基本概念是:由于从网络的边缘索取对象比从Internet中索取的速度更快、费用更低廉,因此将Web数据靠近最终用户保存,可以使服务提供商保留带宽,节省费用。缓存设备工作在比路由器更高的层次上,能够把用户所要访问的网络信息“抓”到本地,在最短的时间内将信息连续、完整、实时地传递给最终用户,不仅大大缩短了访问响应时间,而且极大地提高了高峰时间网络所能承受的访问容量。可以说,缓存技术降低了目前广域网通讯带宽成本,是提升互联网访问性能的最好方法。
早期的缓存技术可用来节省带宽以减少网络拥塞,但它们不可避免地引起了以下问题:一是用户有可能得不到网页的及时更新,因为缓存区不可能自动跟踪网页的变化;二是为得到最新网页,用户访问时需要首先查询真正的服务器上的内容,这将导致访问速度的降低。
目前使用最多的缓存技术产品是Web Cache。一提Cache,大家自然会想到计算机里面的高速缓存,实际上,Web Cache的功用远不止存储和提供数据这么简单。Cache是作为基于软件的代理服务器的一部分或专门的硬件(appliances,容器)出现的,本文主要谈后者。与前者相比,它可以提供更好的性能。不同的生产商提供的产品在许多方面存在着差异,其中包括配置和设置的难易程度、使用的协议、安全性能、远程管理、能够用于缓存的 Web传输的类型以及价格、售后技术支持等。
Cache设备可在用户端储存最常浏览的网页内容,随时提供给用户存取,还可同时监控内容的来源,以测知网页是否已更新,并同步更新储存的内容。一般来说,在配置了互联网加速设备后,由于很多用户浏览的内容可以从高速缓存中直接调出,网络效能会有明显的大幅提升:网页响应时间最多可以减少90%以上;频宽使用率将增加30%~50%。
SSL/XML加速
解决了服务器分配和缓存的问题之后,在网络传输的内容上,由于SSL和XML仍占用相当的服务器资源,仍然会影响网络的传输速度。它们能加速吗?
SSL(加密套接字协议层)是一种应用极为广泛的WEB信息安全传送协议。最初由Netscape开发以提供Internet上的安全连接和传送,目前,98%的Web上的安全传送都运用SSL。SSL已经成了安全互联网交易中数据加密的工业标准,采用SSL的网站在1998年和1999年间增加了两倍。由于SSL运用加密算法和密码,其加密/解密过程需大量占用服务器的CPU资源,使CPU利用率接近100%,从而大大降低了服务器性能。当网络用户大大增加后,网络性能将急剧降低,很可能用户会因网络响应欠佳而失去耐心离开网站。
电子商务时代,服务器反应速度至关重要,为根本解决SSL给服务器运行带来的不利影响,必须采用专门设备处理SSL协议,以使服务器CPU从繁重的加密/解密过程中解脱出来。
当使用SSL加速器时,所有非SSL数据流可以未受任何改变地通过加速器;但是当由SSL加密过的数据流经过SSL加速器时,进入的SSL数据流被解密并干净地传给服务器,而外流的SSL数据流被加密并传向客户。这样服务器只需简单地处理SSL请求,原本消耗众多计算资源的HTTP/SSL现在被专用的 SSL加速设备负责处理。使用了SSL加速器之后,系统每秒处理的安全连接数可由原来几十个增长到数百个。当然,如果需要最大限度地利用服务器,也可以卸载SSL处理工作。
此外,SSL加速器可以实现灵活的动态堆叠,实行自动的“任务分担”以得到最大的扩展能力。一般SSL加速器可以自动与所有类型的服务器协同运行,并可以支持一台或多台服务器。
XML(扩展标识语言)是SGML(标准通用标识语言)的一个子集,它已经快速取代EDI(电子数据交换)成为B2B网上交易的统一格式。事实已经证明,XML所采用的标准技术最适合Web开发。XML支持结构化的数据,可以更详细地定义某个数据对象的数据结构,例如,描述产品,详细定义该产品的生产厂、产品名、产品号、产地等信息,这种定义不仅为标记该产品提供方便,而且这种XML数据很容易按生产厂、产品名等排序,使用户的查询变得更方便。
XML加速器可以将XML交易进行分类,如按照商业合作伙伴名称或类型、交易价值或数量以及时刻或时区为依据,配置业务优先级,从而提高响应速度,解放服务器资源,更快地处理交易。
智能化的XML加速器可以使用多变量分类包括与、或,以满足复杂业务的优先级要求。还有的XML加速器自身提供服务器的负载均衡,以达到快速、安全的目的。
带宽的重要性对网络来说不言而喻。但在实际应用中,由于众多数据流同时使用带宽却无法按照任务的关键性和时间的敏感性分级,所以关键应用带宽往往未被高效使用,带宽的使用效率低下,成为网络传输的瓶颈。
例如,与Web浏览相比,电子邮件的任务关键性要高一些,但对时间的敏感性并没有过高的要求;而实时的游戏等,对时间非常敏感,但任务的关键性并不大。如果对这些数据流不加分析地传输,必然会影响网络传输的效率。
带宽管理器使用户可以高效地管理网络通信、提供差别服务并控制广域网络带宽分配。由于使用带宽管理器可以赋予带宽优先级,因此可以加大关键业务的带宽,限制非关键或大容量应用的带宽,提高众多应用和服务的功能。
带宽管理器适用于高速局域网和广域网的交界处,是所有数据流的唯一路径。它根据定制的带宽计划进行网络分析,进行精确的流量控制,智能地将通信进行分类。在大容量数据流的情况下,关键应用得以保证,带宽获得高效应用。由于各种应用、多种服务级别都能得到高质量服务,带宽使用效率达到了最大化。
带宽管理器不仅可以分析网络通信状态,还可以提供网络报告,使服务提供商可以根据具体数字进行容量规划并评估配置变化所产生的影响。
值得说明的是,以上谈到的负载均衡、高速缓存、SSL加速和带宽管理等各项技术既可以单独使用,也可以相互结合,或者集成到交换机或服务器中去。目前许多厂家已经生产了集合两种或两种以上加速技术的产品。也许几年以后,我们可以看到更为集成的“互联网加速器”或者已经集成所有加速技术的新型互联网服务器
『拾』 什么是服务器虚拟化技术有什么用
服务器虚拟化是使用虚拟化软件在一个硬件服务器上虚拟出多个虚拟硬件服务器。每个虚拟机服务器都有自己的操作系统,提供自己的服务,并且互相直接没有关联互不影响,使用上就好像是一个个单独的服务器。
虚拟化技术最大的好处是提高服务器的利用率,一个服务器可能正常使用上系统负载不到10%,但为了安全或者应用系统限制,不能在一个服务器上提供多种服务(因为这样会死的很惨!,比如同时提供DNS服务和ERP服务,一旦DNS被攻击,你的ERP也一起完蛋。)这样的话,其实上你有90%的投资是浪费的。
但如果我将服务器虚拟化了,虚拟出了5个服务器,一个DNS,一个ERP一个OA一个邮件一个域控,他们之间实际上是隔离的,谁坏了也干扰不到其他服务,等于我用一个服务器的硬件投资实现了五个服务器的效果。这个实体服务器可能硬件利用率就达到了80%以上。