2019年7月

做完horizon桌面以后,在仪表板中的系统运行状态里会有提示,连接服务器的ssl证书无效。

如果需要更换vSphere自带的SSL证书看这里VMware之使用自签名证书替换vSphere各组件自带SSL证书

10712-zn8wqsvpvl9.png

如果安装了安全服务器,也会有提示

58441-olrwiejx28q.png

如果配置了事件数据库,在事件日志中也会有相应的提示

53438-78rvlvr6x64.png

这里可以使用域证书服务来解决这个问题。

一,安装配置CA服务器

安装一台Windows server 2016虚拟机,更改主机名,然后加域,也可以直接在域控中安装证书服务。

59588-761h5wdvlhk.png

1,安装域证书服务

服务器角色中选择Active Directory证书服务,下一步

28611-gm9jyhwau18.png

角色服务中选择证书颁发机构证书颁发机构Web注册,下一步,直至安装完成

89955-g1ptt0fkr3b.png

在服务器管理中打开配置证书服务

05630-rysvaplqz4.png

选择证书颁发机构证书颁发机构Web注册(选择web注册是为了方便后面通过网页申请证书),下一步

53407-9xfkvnvh6rh.png

选择企业CA,下一步,选择根CA

16295-xyqn9rdzl9.png

选择创建新的私钥

06433-gdxsviurb9p.png

密钥长度2048

37664-kl817rutgq.png

其他默认即可,下一步直至安装完成。

08268-xj5dq11hv3p.png

二,配置CA模板

1,在服务器管理器中,打开证书颁发机构,右键单击证书模板,单击管理,打开证书模板控制台

78273-5xrcyfnyw4a.png

右键单击Web 服务器,选择复制模板

11620-jpa3iray69.png

2,单击常规选项卡,在模板显示名称字段中,输入 Horizon 作为新模板的名称。

67816-1714mu9b203.png

3,单击兼容性选项卡,证书颁发机构选择Windows Server 2016,证书接收人选择Windows 7 / Server 2008 R2,如果是其他版本的服务器,根据真实情况选择即可。

84561-6shbo1l2jld.png

3,单击请求处理选项卡。勾选允许导出私钥

54346-3h69xc1pwkl.png

如果ca服务器是单独的虚拟机,则

4,单击安全选项卡,分别选中Authenticated UsersAdministrator,确保勾选写入注册权限

Authenticated Users

84117-9m4cljt2dg.png

Administrator

82762-f3rfgme847.png

5,右键单击证书模板,选择新建,点击要颁发的证书模板

40166-91d8d7cmop.png

6,选中新建的模板Horizon,单击确定。

61423-6sya65mmkt6.png

[scode type="blue"]下面关键内容仅对打赏用户开放,之前通过微信打赏的用户,微信联系我获取密码,谢谢![/scode]

某日,接到电话,一客户V7000重启了下,无法正常启动,报550错误。本着客户就是上帝的原则,饭都没吃,马上远程。
详细沟通得知:V7000管理界面报724-110的错误。客户修复了两次,再也无法连接管理界面,登录服务助手,发现集群系统丢失,一个节点处于550错误的服务状态,一个节点一直卡在正在启动的状态。此V7000供多台虚拟化服务器使用。

经和客户详细沟通后,决定做T3恢复。

恢复过程大概如下:

1,依次清除每个节点的系统数据
2,依次选中每个节点,重置机柜标识
3,退出两个节点到候选状态
4,选中恢复系统,点击T3恢复。

说明:T3恢复看运气,这个运气包扩存储出现问题时保存配置XML文件的完整性,包括操作步骤的熟练程度等等一些因素。

恢复的时间看硬盘的转速,如果是SATA大盘,恢复的时间会很久,可能需要几个小时。

恢复完成后,在管理系统菜单下,会显示管理IP,正常登录管理IP。依次检查池,卷,主机映射关系,都处于正常良好的状态。

回到虚拟化主机界面,此时发现,存储还是处于不可用的状态。将主机重新引导,存储正常联机,但是虚拟机无法开机,提示找不到当前虚拟机的vmx文件。

重要:经过T3恢复后,虚拟化下LUN的uuid发生变化,从而导致虚拟机无法开机,此时所有的虚拟机都是未知或者不可访问状态(vsphere版本不同,提示内容不尽相同)。此时正确的做法是,通过web client 或者vsphere client依次登录每台主机,删除所有故障虚拟机,选择一台主机,注册vcenter虚拟机,然后将其开机,登录vcenter然后依次注册所有虚拟机。

经过几个小时的折腾,所有业务恢复正常。

第二天,又接到电话,说卷掉线了,坏了一块盘,换了以后,就掉线了。

屋漏又逢连夜雨啊

远程过去,发现两个虚拟化的卷都是精简卷,卷2已经脱机,查看卷2的mdisk成员盘,都是正常状态

99793-948vk94zb1i.png

查看系统事件日志

19482-7tyd3o5vqn9.png

所以,这个就是典型的精简卷被撑爆导致掉线的案例。

得亏客户的v7000有扩展柜,又有多余的硬盘,加了盘,然后扩容池,取消卷2的自动扩展属性,使用命令恢复,卷2正常上线

下午下班又接到电话,卷2又掉线了

船迟又遇打头风

又让客户加了四块盘

此时没法在图形界面扩容池,只能用命令,扩容完以后执行recovervdisk,卷2还是脱机状态,再次开启卷2的自动扩展的属性,卷2正常联机。

在恢复过程中用到的命令我这里就不贴了,百度一搜一箩筐。

环境:Horizon 7.8 Windows 2016 RDS许可服务器,Windows2016 RDS会话主机模板

一,准备RDS许可服务器

1,安装一台Windows server 2016服务器,更改计算机名称,并加域。关于Windows加域自动激活,参考下面的链接

大客户VL版本Windows客户端加域自动激活详细教程

43407-ji7hufi40mm.png

2,安装远程桌面服务组件

43080-o7mtbn8xaah.png

选择远程桌面授权

65651-n539dnft7tk.png

3,打开RD授权管理器,右键单击服务器名称,选择激活服务器,弹出服务器激活向导,点击下一步

26244-uuvd97sju5k.png

4,选择Web浏览器,单击下一步

72889-le7b0ya7fon.png

弹出产品id窗口,复制产品ID

45311-f4m3sp4s7u5.png

5,打开远程桌面服务器授权网站:https://activate.microsoft.com/ 选择启用许可证服务器,点击下一步

50694-vq7g63effbm.png

6,在产品id中粘贴第4步复制的产品id,填写公司信息,选择国家为中国,点击下一步,继续下一步

36871-c3sjat8ozlm.png

7,生成许可证id

92693-30g09juyfve.png

复制许可证id,粘贴到许可证服务器激活向导窗口中,点击下一步。

97898-dtsh6gqd4b.png

8,选择立即启动许可证安装向导

21567-6aj4lr5828i.png

9,在许可激活网页中点击是,许可证程序选择企业协议,点击下一步

67028-e65ebafiokl.png

10,产品类型选择Windows server 2016远程桌面服务每用户客户端访问许可证,数量根据自己需求任意填写,协议号码填写(6565792,4954438,6879321,5296992)其中之一。

44826-tbbof8o0rlf.png

11,生成许可证ID,复制许可

39167-1czw8qso9cz.png

12,粘贴到许可ID安装向导窗口中,下一步

10864-k1tjwyr9r9.png

许可id安装完毕

13,右键单击服务器名称,选择复查配置

37779-kzunboctnbj.png

点击添加到组

81714-wrv9bi0i7q.png

500个用户的许可正式申请成功

66154-hphprerwrh.png

至此RDS许可服务器搭建完成

如果做windows 2008 或者windows 2012的rds桌面,根据上述步骤选择相应的系统版本即可。

[scode type="blue"]下面关键内容仅对打赏用户开放,之前通过微信打赏的用户,微信联系我获取密码,谢谢![/scode]

[ppblock ex="原创不易,打赏后即可获取文章密码!"]

二,准备RDS服务器模板

1,安装一台Windows 2016服务器,不用加域。

在服务器角色中选择远程桌面服务

00600-9932wpe6znq.png

在角色服务中,选择远程桌面会话主机点击下一步

50204-twfpwb4r0fo.png

备注:如果是 Windows 2012、Windows 2012 R2,还需要安装桌面体验功能。

2,安装horizon agent,勾选Vmware Horizon View Composer Agent选项,下一步直至安装完成。

37479-opkpj6129e.png

如果需要配置即时克隆的桌面,则只选择Vmware Horizon Instant Clone Agent,和上面的composer 不能同时安装,还需要在view 管理界面添加即时克隆管理员。

3,关闭虚拟机的休眠功能,用管理员打开命令提示符,执行下面的命令

powercfg.exe /hibernate off

4,虚拟机关机,做快照。

5,新建Windows 2016的虚拟机自定义规范win2016,网络使用dhcp。

01734-2fmurj7k7tj.png

填写加域信息

51245-sluvj67h8cp.png

6,在域控制器中打开组策略管理器,右键组策略对象,点击新建,输入GPO名称

12271-42xnqmxo55d.png

7,右键新建的GPO,点击编辑

定位到计算机配置--策略--管理模板--Windows组件--远程桌面服务--远程桌面会话主机

a,点击授权--使用指定的远程桌面许可证服务器 已启用,填写rds许可证服务器rds.lzuvdi.com

91764-0yic0hco8sfp.png

b,点击授权--设置远程桌面授权模式,已启用,按用户

55668-w6fk25w3p6.png

如果模板虚拟机是Windows 2008r2 或者Windows 2012R2,还需要如下操作。
2016不用做
c,点击连接--限制连接的数量,已启用。数量为1

72058-f42w6yf1jh6.png

8,在组策略管理器中,右键单击要存放Windows 2016 RDS虚拟机的AD容器,点击链接现有GPO

48279-743vlncjk8n.png

选择RDS-license GPO,单击确定。

46573-iyah3rym3y.png

三,配置RDS场

1,新建自动场

45161-9zupwywh7v.png

2,选择View Composer链接克隆

64329-ifro17ny73m.png

3,选择RDS主机AD容器

86925-9jc9q0wlokg.png

选择自定义规范win2016

89618-79mol3j1rc9.png

等待置备

58641-5rw0etazj9g.png

四,配置RDS桌面池

1,选择RDS桌面池

48915-77284mdu4ld.png

2,选择创建好的RDS场

90100-lf5yz5q89y.png

点击下一步然后授权用户

五,登录测试RDS桌面

重要:配置权限,将分配给RDS桌面的用户加入Domain Admins组,

41683-qzfhxkziexa.png

否则登录桌面的时候会报下面的错

78729-i9m51y0ezy.png

rds许可服务器是域成员,在整个域环境中提供rds许可,获取rds许可需要用户有域管理员权限。

21014-94ul7pw4pwl.png

登录一个桌面

80428-3rrkv4nls5e.png

查看RDS许可信息

83870-jw4gj9vqsj.png

正确获取许可

95717-d061hxr1tq.png

登录两个桌面。500个许可,已经用了两个。

34003-8mp07mqbax.png

在RDS许可服务器中查看授权信息

90582-0c7w8hm2mda8.png

[/ppblock]

因个人工作需求,需要外出的时候查看文档,试用了很多网盘的解决方案,最后选择了比较知名的seafile。而seafile支持与Office Online Server集成,来支持在线编辑和协同编辑的高级功能。

Office Online Server是一种 Office 服务器产品,它为 Office 文件提供基于浏览器的文件查看和编辑服务。服务器必须是 Windows Server 2012 R2 或 Windows Server 2016。(请注意,Windows Server 2016 需要 Office Online Server 2017 年 4 月或更高版本。)

微软要求安装Office Online Server 必须要有域控。并且Office Online Server不能安装到域控制器上。

域控 windows2016 :

ad1.lzuvdi.com 192.168.80.100
ad2.lzuvdi.com 192.168.80.200

Office Online Server Windows 2016

office.lzuvdi.com 192.168.80.111

1,安装 Office Online Server 必备组件

以管理员身份打开 Microsoft PowerShell 提示符,然后运行下面的命令示例来安装必需的角色和服务

Windows 2012R2:

Add-WindowsFeature Web-Server,Web-Mgmt-Tools,Web-Mgmt-Console,Web-WebServer,Web-Common-Http,Web-Default-Doc,Web-Static-Content,Web-Performance,Web-Stat-Compression,Web-Dyn-Compression,Web-Security,Web-Filtering,Web-Windows-Auth,Web-App-Dev,Web-Net-Ext45,Web-Asp-Net45,Web-ISAPI-Ext,Web-ISAPI-Filter,Web-Includes,InkandHandwritingServices,NET-Framework-Features,NET-Framework-Core,NET-HTTP-Activation,NET-Non-HTTP-Activ,NET-WCF-HTTP-Activation45,Windows-Identity-Foundation,Server-Media-Foundation

Windows 2016:

Add-WindowsFeature Web-Server,Web-Mgmt-Tools,Web-Mgmt-Console,Web-WebServer,Web-Common-Http,Web-Default-Doc,Web-Static-Content,Web-Performance,Web-Stat-Compression,Web-Dyn-Compression,Web-Security,Web-Filtering,Web-Windows-Auth,Web-App-Dev,Web-Net-Ext45,Web-Asp-Net45,Web-ISAPI-Ext,Web-ISAPI-Filter,Web-Includes,NET-Framework-Features,NET-Framework-45-Features,NET-Framework-Core,NET-Framework-45-Core,NET-HTTP-Activation,NET-Non-HTTP-Activ,NET-WCF-HTTP-Activation45,Windows-Identity-Foundation,Server-Media-Foundation

66272-4xw2mzo8t45.png

安装成功

93141-9tp4loo9356.png

2,安装以下软件:

a).NET Framework 4.5.2
b)Visual C++ Redistributable Packages for Visual Studio 2013
c)Visual C++ Redistributable for Visual Studio 2015
d)Microsoft.IdentityModel.Extention.dll

有些组件如果提示已安装,跳过即可。

3,安装 Office Online Server

复制下面的链接,下载最新版的Office Online Server

ed2k://|file|cn_office_online_server_last_updated_november_2017_x64_dvd_100181918.iso|770267136|0660AFCFE1AC9A62E749194874643E98|/

96494-9md5t69dr7d.png

4,安装 Office Online Server 语言包

借助 Office Online Server 语言包,用户可以查看基于 Web 的 Office 多语言文件,无论是从 SharePoint 文档库打开,还是从 Outlook 网页版打开,都能查看。

点此下载Office Online Server 语言包,然后运行wacserverlanguagepack.exe 安装语言包

5,导入证书

如果只是在内网使用,导入内部的CA证书到个人证书即可。我是公网使用,我把公网的证书导入,并修改友好名称为office

96748-n0jlio9xe3.png

6,部署 Office Online Server 场

New-OfficeWebAppsFarm -InternalUrl "https://office.lzuvdi.com" -ExternalUrl "https://office.mr-mao.cn" -CertificateName "office" -EditingEnabled

参数说明:

-InternalURL 是运行 Office Online Server 服务器完全限定的域名 (FQDN),
-ExternalURL 是可以在 Internet 上访问的 FQDN。
-CertificateName 是证书的友好名称。
-EditingEnabled 在 Office Online 中启用编辑。

30167-jol1am0nuoj.png

部署成功,会提示如下信息:

02523-8sd24mpijnu.png

浏览器中打开 https://office.mr-mao.cn/hosting/discovery

显示如下信息

23191-6h69lcrlm1a.png

7,为seafile集成office online server 功能

编辑seahub_settings.py

# Enable Office Online Server
ENABLE_OFFICE_WEB_APP = True
# Url of Office Online Server's discovery page
# The discovery page tells Seafile how to interact with Office Online Server when view file online
# You should change `http://example.office-web-app.com` to your actual Office Online Server server address
OFFICE_WEB_APP_BASE_URL = 'https://office.mr-mao.cn/hosting/discovery'
# Expiration of WOPI access token
# WOPI access token is a string used by Seafile to determine the file's
# identity and permissions when use Office Online Server view it online
# And for security reason, this token should expire after a set time period
WOPI_ACCESS_TOKEN_EXPIRATION = 30 * 60 # seconds
# List of file formats that you want to view through Office Online Server
# You can change this value according to your preferences
# And of course you should make sure your Office Online Server supports to preview
# the files with the specified extensions
OFFICE_WEB_APP_FILE_EXTENSION = ('ods', 'xls', 'xlsb', 'xlsm', 'xlsx','ppsx', 'ppt',
    'pptm', 'pptx', 'doc', 'docm', 'docx')
# Enable edit files through Office Online Server
ENABLE_OFFICE_WEB_APP_EDIT = True
# types of files should be editable through Office Online Server
# Note, Office Online Server 2016 is needed for editing docx
OFFICE_WEB_APP_EDIT_FILE_EXTENSION = ('xlsx', 'pptx', 'docx')

然后重启seafile 和 seabub服务

8,测试在线编辑功能

01927-xfvmq955ij.png

50056-t7c8lfy0qo.png

参考链接

仲裁之所以成为关键点,最重要的原因还是在于,从整体上看,存储跨站点双活技术是一个对称式的方案架构,两边一比一配比,中间通过链路( FC 或者 IP )连接,其最核心的难点公认是链路这个部分,这点从各家厂商方案披露支持的 RTT (往返延迟)和距离可以看出端倪。链路中断将造成两端健康的存储节点都认为对方挂掉,试图争取 Shared Resource (共享资源),并试图修改集群成员关系,各自组成一个集群,产生 Brain-Split (脑裂)现象,如果没有合理的机制去防范脑裂,将因互相抢夺共享资源自立集群,而导致共享卷数据读写不一致,产生更严重的后果。在存储双活方案,防范脑裂通用的做法就是使用仲裁机制,在第三站点放置仲裁服务器或者仲裁存储阵列。通常有以下三种方式:一是优先级站点方式。这种方式最简单,在没有第三方站点的情况下使用,从两个站点中选一个优先站点,发生脑裂后优先站点仲裁成功。但如集群发生脑裂后,优先站点也发生故障,则会导致业务中断,因此这种方案并非推荐的方案;二是软件仲裁方式。这种方式应用比较普遍,采用专门的仲裁软件来实现,仲裁软件放在第三站点,可以跑在物理服务器或虚拟机上,甚至可以部署到公有云上;三是阵列仲裁盘方式。这种方式是在第三站点采用另外一台阵列创建仲裁盘。这种方式稳定性,可靠性比较高。

本文转载自微信公众号: talkwithtrend

除了仲裁之外,两地三中心( 3DC )扩展方案也是企业上存储双活方案考量较多的关键点。所谓 3DC 即两地三中心,即一份数据有 3 份备份(包括自己)且分布在三个不同的地理位置即称之为三数据中心,通常是指生产中心,加上同城灾备中心以及异地灾备中心。近年来,大范围自然灾害时有发生, 3DC 容灾解决方案越来越受到业界重视和认可,企业在选型建设同城存储双活之前,也需要结合企业各项业务系统连续性保护要求,对存储双活方案之上的异地灾备扩展能力进行额外的考量,其考量点主要体现在以下四个方面:一是受银监和人行监管要求,同城存储双活除了需满足业务连续性指标 RTO 和 RPO 的要求之外,还需要在异地建立数据级以上的保护,以防范城市级重大自然灾害;二是所采用的异地灾备机制,是否会对现有生产和同城引入新的风险问题或者性能影响;三是两地三中心整体架构的完整性问题,在生产中心出现问题后,同城灾备中心接管,异地灾备是否具备持续的保护能力的问题,如果不具备持续保护能力,异地灾备接管的 RPO 将在生产站点恢复之前,不断滞后,灾备站点的单点时间将持续延长;四是在两地三中心架构下,异地灾备的资源是否具备被访问的能力,资源能否得到部分利用,提升整体资源利用率。

下面就这五种方案的仲裁方式和特点,以及两地三中心扩展方案一一解析。

一、 华为 HyperMetro

1、 仲裁
( 1 )仲裁需求:可选择采用仲裁设备的方式进行仲裁,仲裁设备可以是物理服务器,也可以是虚拟机,或者是公有云上的虚拟机;要求两套双活的存储阵列能够通过 IP 网络访问仲裁设备,网络带宽需大于 2MB/s ;独立的物理服务器或者虚拟机作为仲裁设备时,建议部署在第三方站点,这样可以避免单数据中心整体发生灾难时,仲裁设备也同时故障,导致脑裂问题的发生。

( 2 )统一管理:如下图所示,能够实现一套仲裁统一管理 SAN 与 NAS 双活,任何故障场景实现 SAN 和 NAS 在相同站点提供服务。

81881-kpl9s0ovhj.png

( 3 )双重仲裁模式:提供静态优先与仲裁服务器两种仲裁模式,最大限度保障存储双活方案的高可用。静态优先级模式主要应用在无第三方仲裁服务器的场景,在发生链路中断脑裂现象时,强制使优先的存储节点继续提供服务,一般不建议采用该方式,因为在静态优先存储发生故障时,非静态优先的存储和优先的存储间通讯也中断,按照该模式,主机存储访问将全部中断; HyperMetro 支持按双活 Pair 或双活一致性组(多对双活 Pair )为单位进行仲裁,仲裁精细度高,通常可配置以业务为粒度进行仲裁(双活一致性组),仲裁之后,业务均衡分布访问两个存储,实现站点间链路故障时,主机就近访问。

2 、两地三中心扩展
华为 OceanStor HyperMetro 方案支持存储双活之上的异地容灾,通过与 OceanStor 统一存储系统的 HyperReplication 特性组合,并结合 BCManager 专业容灾管理软件实现 3DC 容灾。

当生产中心发生灾难,可在同城灾备中心进行接管业务,并保持与异地灾备中心的容灾关系。若生产中心和同城灾备中心均发生灾难,可在异地灾备中心对远程复制进行主从切换,并拉起业务。相对于传统的同步复制 + 异步复制的 3DC 方案,这种双活 + 异步复制的方案具有更好的资源利用率和故障切换速度。双活数据中心实现同城容灾时,可将同一关键业务负载均衡到双数据中心,并且在单数据中心发生故障,业务零中断,数据零丢失。在部署层面,双活数据中心支持平滑扩展为两地三中心,可先期实现同城双活,待异地数据中心建设完成后,再添加异步复制,实现应用异地保护。

52986-pne4fp4nsej.png

另外,在 3DC 方案中,华为 BCManager 能够提供简化管理的容灾拓扑展示与端到端监控功能,直观清晰的展示保护方案的状态与变化,实时监控相关设备部件,实现业务灾难切换前就识别问题与故障并协助用户排除,规避影响业务和增加成本的容灾切换发生。

二、 EMC Vplex

1 、仲裁
( 1 )仲裁需求: Vplex Metro 和 Vplex Geo 系统具有专属的仲裁节点: Witness ,在搭建 Vplex 双活时,可根据需要包括或不包括 Witness 。 Witness 只能作为虚拟机部署,且只支持 VMware 虚拟化,并部署在与两个 Vplex 集群不同的故障域中 ( 第三方站点 ) 。在两个 Vplex 集群之间进行仲裁,发生站点故障和集群间通信中断时, Witness 起到仲裁效果,提高业务连续性。

34969-jc9vja75t3l.png

(2) 防脑裂规则: Vplex 有着自己专属的防脑裂规则。第一种是分离规则:分离规则是在与远程集群间的连接中断(例如,链路或远程集群故障)时,确定 I/O 一致性组处理方式的预定义规则。在异常情况下,集群通信恢复之前,大多数工作负载需要获得特定虚拟卷集,才能在一个 Vplex 集群上继续 I/O 访问,并在另一个 Vplex 集群上暂停 I/O 访问。在 Vplex Metro 配置中,分离规则可以设置为静态优选集群,方法是设置: winner:cluster-1 、 winner:cluster-2 或 No Automatic Winner (无自动优胜者)。在没有部署 Vplex Witness 情况下, I/O 一致性组将在优选集群中继续提供 I/O 服务,并在非首选集群中暂停 I/O 服务。

第二种是 Vplex Witness,Vplex Witness 通过管理 IP 网络连接至两个 Vplex Metro 集群。 Vplex Witness 通过将其自身的观察与集群定期报告的信息进行协调,让集 群可区分是集群内故障还是集群间链路故障,并在这些情况下自动继续相应站点上的 I/O 服务。 Vplex Witness 仅影响属于 Vplex Metro 配置中同步一致性组成员的虚拟卷,并且仅当分离规则没有指明集群 1 或集群 2 是一致性组优选集群时才会影响(也就是说,“无自动优胜者”规则生效时, Vplex Witness 才会影响一致性组)。在没有 Vplex Witness 时,如果两个 Vplex 集群失去联系,生效的一致性组分离规则将定义哪个集群继续 I/O 服务以及哪个集群暂停 I/O 服务。

如上所述,如果仅使用分离规则来决定哪个站点是优胜者时,可能会增加站点故障时不必要的复杂性,因为可能需要手动干预才能恢复正常运行的站点 I/O 。而采用 Vplex Witness 则会动态地自动处理此类事件,这也是它成为 Oracle Extend RAC 部署时,绝对必要项的原因。 Vplex Witness 提供了以下几项内容: 一是在数据中心之间自动实现负载均衡;二是两个数据中心为 Active/Active 模式;三是可以实现存储层故障处理完全自动化。

为了让 Vplex Witness 能够正确区分各种故障情况,必须将 Vplex Witness 部署在独立于两个站点集群之外的故障域,并且采用互不相同的网络接口。这将规避单个站点故障同时影响 Vplex 集群和 Vplex Witness 的风险。例如,如果将 Vplex Metro 配置的两个集群部署在同一数据中心的两个不同楼层,则建议将 Vplex Witness 部署在其他楼层;如果将 Vplex Metro 配置的两个集群部署在两个不同的数据中心,则建议在第三个数据中心部署 Vplex Witness 。

2、 两地三中心扩展
Vplex 的两地三中心扩展方案有两种实现方式,第一种是借助 EMC RecoverPoint 设备实现。在 Vplex Metro 双活 +CDP 方案中, Vplex 接受到主机写 I/O 之后,同时写入两个数据中心的存储。此外 Vplex 内部集成 I/O 分流软件, Vplex 将每个主机写 I/O 同步复制到 RecoverPoint 。 RecoverPoint 将每个 I/O 记录下来,采用 CDP 实现任意时间点恢复,如下图 1 所示。在该方案之上还可进阶实现 3DC 方案:站点 2 的 RecoverPoint 通过异步复制将 I/O 复制到站点 3 部署的 RecoverPoint 设备,站点 2 的 RecoverPoint 都将每个 IO 记录下来,实现任意时间点恢复,站点 3 的 RecoverPoint 设备异步记录从站点 2 RecoverPoint 设备传输过来得 I/O ,并落地至后端的存储阵列。站点 2/3 的 RecoverPoint 设备对接的存储需要能够支持 RecoverPoint ,可以是 Vplex Local 集群,也可以是存储阵列,如下图 2 和 3 所示。由 EMC RecoverPoint 、 VPLEX Local (或存储阵列)和 Metro 组成的三个站点拓扑将减少主站点或存储阵列故障相关的停机时间,同时能够快速从应用程序数据损坏、病毒或人为错误中恢复,即具备物理和逻辑性错误的双重防范能力。如果丢失多个 VPLEX 站点或虚拟卷的逻辑损坏,可以通过第三方软件集成 , 自动恢复远程站点(第三站点)到虚拟卷的一致时间点。

44335-596gk7yuewi.png

图 1 Vplex Metro + RecoverPoint CDP

08401-weslrmxy30r.png

图 2 Vplex Metro to Vplex Local

25887-kg2fkxh58ar.png

图 3 Vplex Metro to Array-based Splitter

第二种是在 Vplex Metro 的基础上,借助 EMC 存储自身的复制技术实现 3DC 方案,即 Vplex Metro+EMC SRDF/A 方案,如下图所示,主站点和同城灾备站点为双活,主站点 Vplex 集群的底层存储为 EMC 存储(需具备 SRDF 复制许可),通过 SRDF 异步将数据传输至异地灾备站点后端的 EMC 存储(也需具备 SRDF 复制许可),实现数据级异地灾备。

46877-u6ye9atdjw.png

三、 IBM SVC

1 、仲裁
( 1 )仲裁需求:对于 SVC ESC 和 SVC HyperSwap 存储双活方案架构而言,整体呈现的是一种对称式的整体架构,为了防范脑裂,仲裁站点是必需的。在仲裁站点中,基于 IP 的 Quorum 节点和物理 Quorum 磁盘都可以提供脑裂的仲裁服务,存储双活集群最多能够拥有 3 个物理 Quorum 磁盘,也可以选择最多 5 个基于 IP 的 Quorum 节点,这个基于 IP 的 Quorum 节点可以是任何站点的任何服务器,或者公有云的一个虚拟机,在这个服务器内运行一个简单的仲裁 JAVA 程序即可。相较于 Quorum 磁盘,基于 IP 的 Quorum 节点大大提高了仲裁站点的选择方式,节省了企业双活建设成本,只要求 IP 可达,延时在 80ms 之内即可。但是只有物理 Quorum 磁盘的仲裁方式才能够被用来做 SVC ESC 集群的 T3 Recovery ,所有的 SVC 节点都会将节点和集群的相关信息同步至该物理 Quorum 磁盘,当 SVC ESC 整个集群出现无法恢复的故障时,采用 SVC Manage 方式管理的底层存储 LUN ,将无法脱离 SVC 集群直接挂载给主机恢复业务,只能通过第三站点的物理 Quorum 磁盘进行 T3 Recovery 。对于 SVC HyperSwap 双活方案,由于两个站点存在两个互相保护集群,其中一个集群出现故障时,另一个集群可以接管故障,则不存在集群性整体故障无法启动,导致需要第三站点 Quorum 磁盘去做 T3 Recovery 的情景。

( 2 )仲裁机制:在 SVC 集群中有一个概念称为 Configuration Node ,即配置节点,是配置 SVC 集群后,系统自动产生的保存着所有系统配置行为的节点,不能人工更改配置节点。当配置节点失效后,系统会自动选择新的配置节点,配置节点十分重要,它对 SVC 节点仲裁胜利起着决定性作用,仲裁胜利的排序规则通常如下: a 、配置节点(配置节点获得仲裁胜利的概率最高); b 、距离仲裁站点近的节点(探测延时较低的 SVC 节点获得仲裁胜利的概率次之); c 、距离仲裁站点远的节点(探测延时较低的 SVC 节点获得仲裁胜利的概率最低)。例如,当两站点间光纤链路中断,第三站点仲裁节点活动时,脑裂发生,将通过投票仲裁选举获胜的站点,按照上述的仲裁胜利规则, Configuration Node 位于节点 2 ,选举站点 2 优先赢得仲裁,通过站点 2 恢复业务的正常存储访问。当第三站点仲裁节点不活动时,不影响主机的正常存储访问。但倘若此时,两站点间光纤链路也中断了,发生脑裂,这时因为节点 2 为 Configuration Node ,它所拥有候选的 Quorum 将变为 Active Quorum ,该 Quorum 选举站点 2 为仲裁胜利站点,通过站点 2 恢复业务的正常存储访问。

2 、两地三中心扩展
从存储网关层的角度,基于 SVC 的两种双活方案中只有 SVC ESC 方案具有 3DC

扩展能力,受限于 SVC Metro Mirror 或 Global Mirror 的技术体系,无法进行两个以上的 SVC 集群级联扩展, SVC HyperSwap 的复制核心技术为两个集群间的 Metro Mirror ,无法继续在 MM 之上,继续扩展为三个集群间的 MGM (这点与 IBM DS8000 系列的 MGM 技术体系有所差异)。而 SVC ESC 方案的复制核心技术为 Vdisk Mirror ,为同一 SVC 集群下的镜像技术,在此基础之上可以继续扩展为 VDM+MM 或 GM 的架构。从下图 SVC ESC 扩展两地三中心的架构来看,异地灾备站点既可以部署 SVC+ 兼容的后端存储阵列,也可以直接部署 V7000/V5000 等 IBM 存储(这两款存储和 SVC 具有相同的虚拟化软件),通过 GM 异步和 SVC ESC 集群保持复制关系。

而从底层存储的角度,依靠存储阵列的复制技术,可以是 IBM DS8000 系列的 MM 或者 GM ,也可以是 EMC 的 SRDF/S 或者 SRDF/A ,亦或者是 HDS 的 TrueCopy 或者 Universal Replicator 等等, SVC ESC 和 SVC HyperSwap 均可以实现 3DC 扩展。存储网关层的 3DC 扩展和底层存储层的 3DC 扩展有一个比较重要的区别,如果主机的 SVC 虚拟卷条带化分散在底层存储的不同 LUN 上( Manage 模式),采用底层存储复制技术实现 3DC 方案,可能会导致异地灾备的存储 LUN 无法挂载给主机使用,这种 3DC 方案显然是不推荐的;而采用存储网关层的 3DC 方案,则可以有效避免这种问题,异地灾备的主机可以顺利挂载 SVC/V7000/V5000 上的虚拟机卷。如果主机的 SVC 虚拟卷和底层存储 LUN 是一一对应的( IMAGE 模式),采用底层存储复制技术则不会遇到该问题。

21547-e6jd2tpymdt.png

四、 HDS GAD

1 、仲裁
( 1 )仲裁需求:分布式集群和双活方案都需要仲裁机制防止脑裂,保证心跳故障后,整个集群系统能对外提供数据一致性存储服务。 GAD 的仲裁机制原理是采用仲裁磁盘的方式实现,暂不支持通过 IP 仲裁节点实现;仲裁磁盘是第三站点外部存储系统虚拟化的卷,可以是存储阵列,也可以是受支持的服务器磁盘,用于当链路路径或存储系统发生故障时,确定主机 I/O 应在哪个存储系统上继续访问。主存储和从存储每 500 毫秒检查一次仲裁磁盘的物理路径状态;另外,建议外部存储系统的响应时间尽量小,如果响应时间超过 100 毫秒,需要执行必要的操作以减少响应时间。

( 2 )仲裁机制: HDS GAD 具有独特的磁盘仲裁机制,如下图所示,当主存储系统和从存储系统无法通信时,将执行以下操作: a 、当主存储系统无法通过数据路径和从存储系统进行通信时,会将此状态写入仲裁磁盘; b 、当从存储系统从仲裁磁盘检测到发生路径故障时,它将停止接受主机的读写操作 ;c 、从存储系统将与仲裁磁盘进行通信 , 将已停止读写操作的状态通知仲裁磁盘 ;d 、当主存储系统检测到从存储系统无法接受主机读写操作时,主存储系统将挂起 GAD Pair Volume;e 、主存储系统恢复主机读写访问操作。

如果主存储系统在通信中断后的 5 秒内,无法从仲裁磁盘检测到从存储系统不接受主机 I/O 的状态通知,主存储系统将挂起 GAD Pair Volume ,并恢复主机 I/O 访问;如果主存储和从存储系统同时向仲裁磁盘写入通信停止的状态,则认为该通信中断由存储序列号较小的存储系统写入。由该存储系统挂起 GAD Pair Volume ,恢复该存储的主机读写访问操作。如果仲裁磁盘故障,两个存储间的通信中断时,主存储和从存储系统均无法写入通信中断状态到仲裁磁盘,将导致两个存储的全都无法接收主机读写 I/O ,需要强制删除删除 GAD Pair Volume 恢复业务。

58575-1qcx467cbbp.png

针对对应系统(主存储或者从存储)是否能够被检测到已经停止了主机 I/O 访问,有以下两种仲裁机制:

一是在对应系统中检测到主机 I/O 访问停止:当在对应系统中 5 秒内检测到停止时,将根据 GAD Pair Volume 的状态(见下表)来确定停止后将继续接收读写的 Pair Volume 。 a 、当 Pair Volume 的状态为 PAIR 时,将通信中断写入仲裁磁盘的存储卷将恢复主机读写访问; b 、当 Pair Volume 的状态为 INIT/COPY 时, P-VOL 的主机读写访问继续,而对 S-VOL 的主机读写访问将保持停止状态; c 、当 Pair Volume 状态为 PSU 、 PSU 、 SSW 或 SSU 时, I/O 模式为 Local 的卷将恢复主机读写访问, I/O 模式为 Block 的卷将停止主机读写。

二是对应系统中未检测到主机 I/O 访问停止:当对应系统在 5 秒内未检测到中断时,将通信中断写入仲裁磁盘的存储卷在中断后恢复接收主机读写访问。读写处理机制取决于 Pair Volume 状态和未检测到写的 I/O 模式。 a 、当 Pair Volume 的状态为 PAIR 时,两个存储的主机读写访问继续; b 、当 Pair Volume 状态为 INIT/COPY 时, P-VOL 的主机读写访问继续,而对 S-VOL 的主机读写访问保持停止状态; c 、当 Pair Volume 状态为 PSU 、 PSU 、 SSW 或 SSU 时, I/O 模式为 Local 的卷将恢复主机读写访问, I/O 模式为 Block 的卷将停止主机读写。

02871-w1315ldiq2.png

2 、两地三中心扩展
HDS 存储两地三中心方案有三种成熟的架构,所采用的技术也有所差异,分

为级联三中心拓扑、多目标拓扑和异步复制的存储集群拓扑,如下表所示。相较于其他存储架构方案, HDS 在两地三中心方案上提供了不同层次的数据和业务连续性保护能力。下面一一详细介绍:

60382-2urwz2m5eho.png

(1) 级联三中心拓扑:下图为该拓扑架构图,生产中心和同城灾备中心间保持同步复制关系,同城灾备中心和异地灾备中心保持异步复制关系,在该拓扑下,当同城灾备中心发生故障的情况时,异地灾备中心与其在该时间点接收的数据将被暂时冻结。随后,决策层必须决定是否在不具备持续保护的情况下继续运行 IT 生产系统。如决定继续运行,异地灾备中心的数据差异量将进一步增加,并且如果接下来生产中心发生故障,则可能会导致重大的永久性数据丢失。管理员可以选择停止生产中心,直到同城灾备中心恢复,或可以建立从生产中心到异地灾备中心的链路。在这种情况下,会导致生产恢复时间延长,但可最大限度地降低数据丢失量。对于在较小地理区域内的企业,级联三中心拓扑能使业务开展更加顺利。导致生产中心和同城灾备中心同时发生故障的灾难将可能只对大多数本地客户造成影响。对于跨国企业,尤其是提供关键基础架构服务的企业,级联三中心拓扑可能无法满足更为严格的要求。

49303-fl81dfftsna.png

(2) 多目标拓扑:下图为多目标拓扑,生产中心和同城灾备中心保持同步复制关系,同时也和异地灾备中心保持异步复制关系,同城灾备中心和异地灾备保持差异数据再同步复制关系。多目标拓扑与级联三中心拓扑和之间的区别在于:在多目标拓扑中,生产中心同时将数据备份到两个中心。这是 HDS 存储最新的技术能力,并且需要非常高性能的控制器来对此流程进行管理。该方案可以确保在生产中心或同城灾备中心丢失时不会出现永久性数据丢失。任一中心可以将数据传送到异地灾备中心,以确保零数据丢失。为确保快速恢复,存储控制器技术必须能使异地灾备中心上的控制器与生产中心或同城灾备中心重新同步,并仅传递更改的数据(增量重新同步)。而在级联三中心拓扑中,如果同城灾备中心关闭,则不能将数据传送到异地灾备中心。多目标架构的主要缺点是三中心链路的成本较高。而主要优势是,如果同城灾备中心中有备份服务器,则可以在生产中心和同城灾备中心之间进行故障切换和故障自动恢复。由此将显著缩短业务恢复时间。此外,还可以在任一备份中心创建和挂载远程快照或克隆,以启用辅助用途。这些用途包括将数据备份到磁带、开发测试使用生产数据或进行生产数据恢复测试等操作,而不会对生产系统的性能或可用性造成影响。

67798-g3i1uf6ohdg.png

(3) 异步复制的存储集群拓扑:如下图所示,该架构和多目标拓扑架构类似,差别在于生产中心和同城灾备中心的高可用方式,多目标拓扑为 ACTIVE-STANDBY 模式,而存储集群拓扑为 ACTIVE-ACTIVE 集群模式。该架构为 HDS 的最新技术,有关存储故障恢复能力和数据可用性的最新发展成果都在 GAD 存储集群技术中有所体现。这些功能是 Hitachi Virtual Storage Platform 系列系统的存储虚拟化操作系统的一部分。通过 GAD ,可配备两个生产中心,每个中心均有所有数据的活动拷贝。如任一中心发生故障,则其数据在其他中心是透明可用的,无需执行故障切换或故障将自动恢复。 Universal Replicator 异步复制用于将数据从任一生产中心复制到异地灾备中心。上述有关多目标配置的所有额外优势均适用于此架构。存储集群的 3DC 模型可提供最大级别的数据可用性和故障恢复能力,同时实现零数据丢失。

48914-ofzv5pxb1s.png

五、 NetApp MetroCluster

1 、仲裁
( 1 )仲裁需求: NetApp MCC 的 MetroCluster 仲裁软件称为 TieBreak ,它支持部署在第三站点的 Linux 的主机上,该软件通过对节点 SSH 的 Session 进行检查,实现对 HA Pair 和集群状态进行监控。 TieBreak 软件能够在 3 到 5 秒内检查到 SSH Session 的故障,重试的时间间隔为 3 秒。仲裁软件的这种方式具有灵活性的优势,第三站点可以选择两个数据中心中的一个,可以选择公有云中的一个虚拟机,也可以选择其他建筑内的任意一台 Linux 虚拟机,保证 SSH 网络可达即可。下图为 NetApp MCC+TieBreak 的拓扑架构。

92487-48cxws5jl6n.png

(2) 仲裁机制: MetroCluster 仲裁的机制有两种,第一种为静态模式,在站点发生故障后, MetroCluster 配置本身不会检测并启动切换。此时不能依靠一个站点去监视另一个站点的故障,因为从一个集群到另一个集群的响应超时可能是由于活动的站点故障引起的,或者可能是由于所有站点间链路的故障引起的,站点间的监视无法发现真实的故障引发原因。在静态模式下,如果站点间所有链路都出现故障时, MetroCluster 配置将继续运行,提供本地 I/O 服务,但无法将写 I/O 同步至远程站点。当站点间一条以上链接线路恢复后,会自动恢复复制关系,并追上异常时产生的数据差异。在这种情况下,不会产生自动切换,因为每个集群都认为另一个集群已经失败,并且两者都可能尝试执行切换,从而导致脑裂场景,造成数据不一致。至于是否需要切换,可以由管理员或领导确定。第二种为仲裁模式, NetApp 提供完全功能支持的 MetroCluster Tiebreaker 软件进行仲裁,该软件安装在第三个站点,并与两个集群中的每个集群建立独立连接。 Tiebreaker 软件的目的是监控和检测单个站点故障和站点间的链路故障。如果发生站点灾难, MetroCluster Tiebreaker 软件可能会引发 SNMP 陷阱。它以观察者模式运行,并且可以在发生需要切换的灾难时检测并发送警报。管理员收到告警后,可以手动发出切换命令进行灾备切换,也可以将 Tiebreaker 软件配置为在发生灾难时自动发出切换命令。

为了创建站点可用性的聚合逻辑视图, Tiebreaker 软件监视节点, HA Pair 和集群级别的相关对象,通过对集群硬件、直接链接和间接链接检查来更新其链接和集群状态。通过不断的更新来判断 Tiebreaker 是否检测到 HA 接管事件、站点故障或所有站点间链路故障等场景。直接链接是通过 Secure Shell ( SSH )到节点的管理 LIF 。所有到集群的直接链接失败都表示该站点出现故障,其特征是集群停止提供任何数据(所有 SVM 都已关闭)。间接链接确定集群是否可以通过任何站点间( FC-VI )链接或集群间 LIF 到达另一个集群。如果集群之间的间接链接失败,而到节点的直接链接成功,则表明站点间链接已关闭,并且集群彼此隔离。在这种情况下, MetroCluster 将按照静态模式继续运行;如果到单个站点节点的直接链接失败,则表明站点可能出现故障。在这种情况下, MetroCluster 将按照仲裁模式,产生告警事件,进行自动或手动切换。

2 、两地三中心扩展
NetApp MetroCluster 采用 SnapMirror 数据复制来实现两地三中心扩展方案,从 ONTAP 9.5 开始, MetroCluster 增加了对 SVM DR 的支持, MetroCluster 配置中的活动存储虚拟机( SVM )可用作具有 SnapMirror SVM 灾难恢复功能的源,以获得更高级别的保护,但目标 SVM 必须位于 MetroCluster 配置之外的第三个群集上。如下图所示,可分别为两个站点的不同 SVM 建立相同的异地容灾保护。

66273-cvu4b7k0xph.png

然而将 SVM 与 SnapMirror 灾难恢复一起使用时,具有以下要求和限制:

( 1 )只有 MetroCluster 配置中的活动 SVM 才能成为 SVM 灾难恢复关系的来源。源可以是切换前的同步源 SVM ,也可以是切换后的同步目标 SVM 。

( 2 )当 MetroCluster 配置处于稳定状态时, MetroCluster 同步目标 SVM 不能成为 SVM 灾难恢复关系的来源,因为卷是离线状态,无法读写。也就是说,无法通过 MetroCluster 同步目标 SVM 来继续扩展多数据中心。

下图左显示了在 MetroCluster 稳定状态下的 SVM 灾难恢复架构:

( 1 )当同步源 SVM 是 SVM DR 关系的源时,源 SVM DR 关系信息也将复制到 MetroCluster 的 Partner, 这样可以在 MetroCluster 集群切换后,由 Partner 继续维持 SVM DR 架构,主站点故障,同城灾备站点依旧具备完备的灾难恢复能力,如下图中所示:

80512-qhfgttlu1fa.png

(2) 在 MetroCluster 集群内部发生切换和切回过程中,到 SVM DR 目标的复制可能会失败。但是在切换或切回过程完成后,将重新建立起 SVM DR 复制关系。

上图右为灾难恢复站点上的 SVM 重新同步架构,在重新同步期间, MetroCluster 配置上的存储虚拟机( SVM )灾难恢复( DR )源将从非 MetroCluster 站点上的目标 SVM 还原,建立重新同步关系,在重新同步期间,由源 SVM ( cluster_A )暂时充当目标 SVM 。

( 1 )如果在重新同步期间, MetroCluster 集群内部发生非计划性的意外切换,将停止重新同步的数据传输。如果发生意外切换,则满足以下条件: a 、 MetroCluster 站点上的目标 SVM (在重新同步之前是源 SVM ,图中为 cluster_A )仍然是目标 SVM 。 MetroCluster Partner 集群(图中为 cluster_B )中的 SVM 依旧保留其子类型并保持不活动状态; b 、必须使用同步目标 SVM 作为目标手动重新创建 SnapMirror 关系; c 、除非执行 SnapMirror 创建操作,否则在幸存者站点切换后, SnapMirror 关系不会出现在 SnapMirror show 的输出中体现。

( 2 )当需要对重新同步期间的意外切换,执行回切操作时,必须断开并删除重新同步关系。如果 MetroCluster 配置中有任何 SnapMirror DR 目标 SVM ,或者集群具有子类型 “dp-destination” 的 SVM ,则不允许使用回切。

生产环境中,vgpu的许可服务器可以部署为HA模式,这样不管哪一台出问题,都不会影响客户端获取许可。
本次采用两台centos7.6,固定IP地址,centos带桌面组件,license 许可版本是2019.05.0.26416627。2018.06及以后的Linux 许可服务器版本支持在consloe 字符界面下安装,之前的版本必须需要桌面。

许可证服务器需要Java运行时环境和Apache Tomcat服务器,必须在安装许可证服务器软件之前单独安装,linux一般都自带java。

license-a:192.168.80.112 主许可服务器
license-b:192.168.80.113 备许可服务器

先安装license-a

1,安装tomcat环境

yum install -y tomcat tomcat-webapps
systemctl start tomcat
systemctl enable tomcat

2,上传Linux版本的许可管理软件

chmod +x setup.bin
/setup.bin

弹出安装界面,选择next

71205-qwfwjeogtg.png

如果没有桌面,可以使用下面的命令

./setup.bin -i console

87494-mi96xqu1hhj.png

默认安装到/opt/flexnetls/nvidia文件夹下,点击下一步

00139-japmj3txws.png

填入tomcat 的文件夹 /usr/share/tomcat ,tomcat安装完默认就这个位置, 点击下一步

16597-uxdzdktox9n.png

勾选两个端口,会自动加入防火墙白名单,许可端口是7070,管理端口是8080,点击下一步,然后单击安装

74084-ckgin7mbdt.png

安装完成

10295-iewkssymylm.png

3,登录许可服务器

浏览器中打开http://license-a:8080/licserver/
在左边菜单栏点击Configuration,记录下Server host ID,即这台虚拟机的mac地址

59375-7zoekrkhvjc.png

重复上述步骤安装第二台许可服务器license-b并记录Server host ID

4,生成许可

登录nvidia许可官网

输入账号密码,点击左侧的Register License Server,输入两台许可服务器的mac地址,填写别名,点击创建。

87720-hqvgyluq1e.png

然后添加映射购买好的许可,点击Download License File

5,上传许可

浏览器中打开许可服务器,点击License Management,选择许可文件点击上传。此时提示:

Successfully applied license file to license server.

点击Licensed Feature Usage,许可已成功上传

94777-0irellyhke47.png

确定两台服务器都成功上传,并正确显示许可信息。

6,配置HA

先配置license-a
点击左侧的License Server Configuration

a) 在Backup URI框中输入:

http://license-b:7070/fne/bin/capability
即:http://192.168.80.113:7070/fne/bin/capability

b) 在Main URI框中输入:

http://license-a:7070/fne/bin/capability
即:http://192.168.80.112:7070/fne/bin/capability

设置Synchronization to fne enabled选项为true

c) 在Main FNE Server URI框中输入:

http://license-a:7070/fne/bin/capability
即:http://192.168.80.112:7070/fne/bin/capability

84974-4a2hp9a7ezh.png

确认上述信息填写无误,然后点击SAVE保存。

然后在license-b中重复上述操作。

SSH到license-a服务器

systemctl restart flexnetls-nvidia
cat /var/opt/flexnetls/nvidia/logs/flexnetls.log

日志信息可能需要等几分钟才能出现

62339-7yqtknqvox6.png

SSH到license-b服务器

systemctl restart flexnetls-nvidia
cat /var/opt/flexnetls/nvidia/logs/flexnetls.log

51826-vascbia87h.png

至此,license HA搭建完成。

7,测试HA

在vgpu虚拟机中填写主备许可服务器的IP和端口,提示已经获取许可

04297-3g62ek2vt4t.png

此时关闭license-a许可服务器,许可管理界面已经无法打开,查看license-b 的管理界面

91233-bj134ex8h9u.png

41091-kb1o8bkk15.png

虚拟机的许可请求自动转移到license-b(192.168.80.113)

Ubuntu的VGPU的配置跟CentOS类似,也是需要先加域,过程参考Horizon系列之安装配置Ubuntu18虚拟桌面,只需要做到加域,验证sudo权限以及域用户能进桌面步骤即可,horizon agent 不需要安装,如果已经安装了,需要执行下面的命令卸载

    /usr/lib/vmware/viewagent/bin/uninstall_viewagent.sh

ESXI主机安装GPU驱动以及给虚拟机分配VGPU过程参考这里Horizon系列之CentOS虚拟桌面安装配置VGPU

环境:

Vcenter6.7 ESXI6.7 Horizon7.8 Ubuntu18.04 GRID VGPU7.2

一,安装配置虚拟桌面模板

1,禁用自带的驱动

echo "blacklist nouveau" >> /etc/modprobe.d/blacklist.conf

没有禁用驱动之前是这样的

lsmod |grep nouveau

06490-geamo42cf6.png

update-initramfs -u

15795-cax750ccxrg.png

重启虚拟机

lsmod |grep nouveau

34600-xzd7o0v8e5.png

无任何输出,则说明自带驱动已经禁用

[scode type="blue"]下面关键内容仅对打赏用户开放,之前通过微信打赏的用户,微信联系我获取密码,谢谢![/scode]

[ppblock ex="原创不易,打赏后即可获取文章密码!"]
2,安装vgpu驱动的依赖组件

apt-get install make gcc g++ lib32ncurses5 lib32z1

3,上传vgpu的驱动,然后安装

chmod +x NVIDIA-Linux-x86_64-410.107-grid.run
service lightdm stop
./NVIDIA-Linux-x86_64-410.107-grid.run

提示预安装脚本失败,忽略它,点击继续

58073-bso7rj3uhm5.png

忽略GCC版本的兼容性,要求是7.3,默认安装的是7.4,忽略即可

61130-1ycxoxao54h.png

点击OK

97535-q2d4ls8eqcp.png

安装过程

70783-ejhmo7fcdkg.png

选择yes,需要安装32位的兼容库

74552-v7vexpasp3p.png

安装并覆盖

53384-vfsjoz71wc.png

选择更新

06820-x2l5tjkj72.png

安装完成

01892-64etrdikyag.png

重启虚拟机,然后执行

nmvidia-smi

36013-zyg9755zqj.png

输出如上信息,则vgpu驱动安装成功

4,上传Linux系统的horizon agent解压并安装

./install_viewagent.sh -A yes

安装agent 的时候可能会出现以下错误

06070-cjxlp5grp1.png

执行

dpkg-reconfigure gdm3

选择gdm3,然后回车,继续执行./install_viewagent.sh -A yes安装agent

79220-kcr8vk2uc3.png

安装完成后继续执行

dpkg-reconfigure gdm3

选择lightdm,然后回车,horizon 要求lightdm作为显示管理器。

5,编辑/etc/vmware/viewagent-custom.conf文件,去除SSODesktopType=UseGnomeUbuntu前面的#

6,生成grid配置文件

这一步是为了登录桌面执行nvidia-settings 能看到license的配置项,这个文件里直接可以配置许可服务器的IP和端口。

cp /etc/nvidia/gridd.conf.template /etc/nvidia/gridd.conf
vi /etc/nvidia/gridd.conf

编辑内容如下:

去除EnableUI=TRUE前面的#

然后按:wq! 保存

7,清理之前登录测试在/home/文件夹下自动创建的用户文件夹,以及horizon agent安装程序和vgpu驱动,删除在/var/lib/AccountsService/users/ 下生成的域用户文件

8,创建linux版本的客户机自定义规范,然后克隆ubuntu为模板

二,创建桌面池

新建桌面池,选择自动,专用桌面,完整克隆。3D渲染器选择 NVIDIA GRID VGPU,其他自定义,然后等待置备。

三,测试桌面

1,horizon client登录

71879-tpsfljgsq3m.png

05438-c1wtypa67mn.png

如果不输入许可,桌面非常卡,并且有以下限制:

帧速率上限为每秒3帧。
GPU资源分配有限,这将阻止某些应用程序正常运行。
在支持CUDA的vGPU上,CUDA被禁用。

总结:不管是centos,还是ubuntu,在分配许可的时候直接在/etc/nvidia/gridd.conf文件中配置好许可IP和端口。

[/ppblock]

Windows的VGPU非常简单,一路点鼠标下一步,没有什么难度,Linux的vgpu桌面还是有点坑。

环境:Vcenter6.7 ESXI6.7 Horizon7.8 Centos7.6 GRID VGPU7.2

不同的ESXI和VGPU版本支持的功能不尽相同,在配置之前一定要确定。

一,安装配置VGPU驱动

1,上传GPU的驱动到主机的存储空间,开启主机的ssh,然后登录主机,把驱动复制到/tmp文件夹下,迁移或关闭主机上所有的虚拟机,然后将主机置入维护模式,并安装驱动。

esxcli system maintenanceMode set --enable=true
esxcli software vib install -v /tmp/NVIDIA-VMware_ESXi_6.7_Host_Driver-410.107-1OEM.670.0.0.8169922.x86_64.vib

如果是升级驱动则用下面命令:

esxcli software vib update -v /tmp/NVIDIA-VMware_ESXi_6.7_Host_Driver-410.107-1OEM.670.0.0.8169922.x86_64.vib

87488-yqxx4xkw65.png

卸载驱动用下面的命令:

esxcli software vib remove -n NVIDIA-VMware_ESXi_6.7_Host_Driver

2,查看驱动是否安装成功

esxcli software vib list | grep -i nvidia

41570-iy7j1dkz7i.png

nvidia-smi

85076-ur3fa78kowo.png

备注:Tesla M60,Tesla M6和基于Pascal GPU架构的GPU,例如Tesla P100或Tesla P4,支持纠错码(ECC)内存,以提高数据完整性。图形模式下的特斯拉M60和M6 GPU默认情况下禁用ECC内存。NVIDIA vGPU不支持ECC内存。如果启用了ECC内存,则NVIDIA vGPU无法启动。因此,如果使用的是NVIDIA vGPU,则必须确保在所有GPU上禁用ECC内存。早期的M10,M60 还需要手动将模式转为图形模式,出厂默认是计算模式,近几年出的卡不需要,转换方法参考官方文档。

如果nvidia-smi执行报错,先查看ecc是否关闭

nvidia-smi -q

14283-gbetp2cpmc.png

如果没有关闭,执行下面命令关闭ecc

如果要将主机上所有GPU 或分配给VM的vGPU的ECC状态更改为关闭,请运行以下命令:

nvidia-smi -e 0

如果要将特定GPU 或vGPU的ECC状态更改为关闭,请运行以下命令:

nvidia-smi -i id -e 0

id 是执行 nvidia-smi后显示的GPU 或vGPU的索引 即Bus-Id。
比如要禁用Bus-ID为00000000:31:00.0的GPU的ECC

nvidia-smi -i 00000000:31:00.0 -e 0

关闭ecc 的情况下如果还是报错,官网查看驱动版本和当前esxi是否兼容,确定版本没有问题的情况下继续报错,则点击这里确定主机的BIOS设置是否规范。

确认上述步骤无任何问题,把主机退出维护模式,然后重启服务器

esxcli system maintenanceMode set --enable=false
reboot

3,vcenter中选中主机,点击配置,单击图形

85654-831uxx52oxe.png

图形设备标签下,选择物理GPU,选择直接共享,单击确定,多个GPU,重复操作即可

39251-l2nmezqavf.png

主机图形标签下,选择物理GPU,选择直接共享,单击确定,多个GPU,重复操作即可

97642-3gaxgszy3i9.png

4,如果集群内有多个GPU服务器,可以开启VGPU的vmotion 模式。

点击vcenter实例名称,点击配置,选择高级设置并单击编辑,弹出的窗口中,搜索关键字VGPU,勾选已启用,单击确定。此时vgpu 的vmotion功能已开启。

47932-oa1mq09axi.png

下表列出了支持VMware vmotion和vGPU的suspend-resume的软件版本

Guest OSNVIDIA vGPU - VMware vSphereReleasesPass-Through GPU - VMware vSphere Releases
Red Hat Enterprise Linux 7.0-7.6 and later compatible 7.x versions6.7, 6.5, 6.06.7, 6.5, 6.0
CentOS 7.0-7.6 and later compatible 7.x versions6.7, 6.5, 6.06.7, 6.5, 6.0
Red Hat Enterprise Linux 6.6 and later compatible 6.x versions6.7, 6.5, 6.06.7, 6.5, 6.0
CentOS 6.6 and later compatible 6.x versions6.7, 6.5, 6.06.7, 6.5, 6.0
Ubuntu 18.04 LTS6.7, 6.5, 6.06.7, 6.5, 6.0
Ubuntu 16.04 LTS6.7, 6.5, 6.06.7, 6.5, 6.0
Ubuntu 14.04 LTS6.7, 6.5, 6.06.7, 6.5, 6.0
SUSE Linux Enterprise Server 12 SP36.7, 6.5, 6.06.7, 6.5, 6.0

并且只有以下GPU支持vmotion

Tesla M6
Tesla M10
Tesla M60
Tesla P4
Tesla P6
Tesla P40
Since 7.1: Tesla T4

二,配置虚拟机模板

[scode type="blue"]下面关键内容仅对打赏用户开放,之前通过微信打赏的用户,微信联系我获取密码,谢谢![/scode]

下面列出了服务器常用的操作系统的链接,通过网盘共享,如果链接失效,请留言。
所有的镜像来自于官方原版。

[scode type="blue"]2022年2月12日更新,添加nVidia-vgpu驱动、SQL Server。更新其他系统版本至最新、最全![/scode]

[scode type="blue"]2022年2月25日更新,添加VMware converter程序,更新其他系统版本至最新、最全![/scode]

[scode type="blue"]百度网盘提取码评论之后刷新可见,请勿留言无意义的评论![/scode]

1,Windows

点击下载 提取码

版本信息:

2008_R2_SP1_Lenovo_systemx.iso
cn_windows_server_2008_standard_enterprise_and_datacenter_with_sp2_x64_dvd_x15-41319.iso
cn_windows_server_2008_r2_standard_enterprise_datacenter_and_web_with_sp1_vl_build_x64_dvd_617396.iso
cn_windows_server_2012_r2_vl_x64_dvd_2979220.iso
cn_windows_server_2012_r2_vl_with_update_x64_dvd_6052729.iso
cn_windows_server_2016_vl_x64_dvd_11636695.iso
cn_windows_server_2016_updated_feb_2018_x64_dvd_11636703.iso
cn_windows_storage_server_2016_x64_dvd_9327778.iso
cn_microsoft_hyper-v_server_2016_x64_dvd_9347275.iso
cn_windows_server_2019_updated_march_2019_x64_dvd_c1ffb46c.iso
zh-cn_windows_server_2022_x64_dvd_6c73507d.iso
Rufus 制作 USB 启动盘简单教程.pdf

2,CentOS

点击下载

版本信息:

CentOS-6.0-x86_64-bin-DVD1.iso
CentOS-6.1-x86_64-bin-DVD1.iso
CentOS-6.2-x86_64-bin-DVD1.iso
CentOS-6.3-x86_64-bin-DVD1.iso
CentOS-6.4-x86_64-bin-DVD1.iso
CentOS-6.5-x86_64-bin-DVD1.iso
CentOS-6.6-x86_64-bin-DVD1.iso
CentOS-6.7-x86_64-bin-DVD1.iso
CentOS-6.8-x86_64-bin-DVD1.iso
CentOS-6.9-x86_64-bin-DVD1.iso
CentOS-6.10-x86_64-bin-DVD1.iso
CentOS-7.0-1406-x86_64-DVD.iso
CentOS-7.1-x86_64-DVD-1503-01.iso
CentOS-7.2-x86_64-DVD-1511.iso
CentOS-7.3-x86_64-DVD-1611.iso
CentOS-7.4-x86_64-DVD-1708.iso
CentOS-7.5-x86_64-DVD-1804.iso
CentOS-7.6-x86_64-DVD-1810.iso
CentOS-7.7-x86_64-DVD-1908.iso
CentOS-7.8-x86_64-DVD-2003.iso
CentOS-7.9-x86_64-DVD-2009.iso
CentOS-8.0-x86_64-1905-dvd1.iso
CentOS-8.1.1911-x86_64-dvd1.iso
CentOS-8.2.2004-x86_64-dvd1.iso
CentOS-8.3.2011-x86_64-dvd1.iso
CentOS-8.4.2105-x86_64-dvd1.iso
CentOS-8.5.2111-x86_64-dvd1.iso

3,RHEL

点击下载

版本信息:

rhel-server-6.0-x86_64-dvd.iso
rhel-server-6.1-x86_64-dvd.iso
rhel-server-6.2-x86_64-dvd.iso
rhel-server-6.3-x86_64-dvd.iso
rhel-server-6.4-x86_64-dvd.iso
rhel-server-6.5-x86_64-dvd.iso
rhel-server-6.6-x86_64-dvd.iso
rhel-server-6.7-x86_64-dvd.iso
rhel-server-6.8-x86_64-dvd.iso
rhel-server-6.9-x86_64-dvd.iso
rhel-server-6.10-x86_64-dvd.iso
rhel-server-7.0-x86_64-dvd.iso
rhel-server-7.1-x86_64-dvd.iso
rhel-server-7.2-x86_64-dvd.iso
rhel-server-7.3-x86_64-dvd.iso
rhel-server-7.4-x86_64-dvd.iso
rhel-server-7.5-x86_64-dvd.iso
rhel-server-7.6-x86_64-dvd.iso
rhel-server-7.7-x86_64-dvd.iso
rhel-server-7.8-x86_64-dvd.iso
rhel-server-7.9-x86_64-dvd.iso
rhel-server-8.0-x86_64-dvd.iso
rhel-server-8.1-x86_64-dvd.iso
rhel-server-8.2-x86_64-dvd.iso
rhel-server-8.3-x86_64-dvd.iso
rhel-server-8.4-x86_64-dvd.iso
rhel-server-8.5-x86_64-dvd.iso

4,vSphere

点击下载
版本信息:

ESXI

VMware-VMvisor-Installer-201912001-15160138.x86_64.iso
VMware-VMvisor-Installer-201908001-14320405.x86_64.iso
VMware-VMvisor-Installer-6.0.update03-5572656.x86_64.iso
VMware-VMvisor-Installer-6.5.0.update03-14320405.x86_64.iso
VMware-VMvisor-Installer-6.5.0.update03-13932383.x86_64.iso
VMware-VMvisor-Installer-6.5.0.update02-8294253.x86_64.iso
VMware-VMvisor-Installer-6.7.0.update03-14320388.x86_64.iso
VMware-VMvisor-Installer-6.7.0.update02-13006603.x86_64.iso
VMware-VMvisor-Installer-6.7.0.update01-10302608.x86_64.iso
VMware-VMvisor-Installer-6.7.0.update03-201912001-15160138.x86_64.iso
VMware-VMvisor-Installer-7.0.0-15843807.x86_64.iso
VMware-VMvisor-Installer-7.0U2-17630552.x86_64.iso
VMware-VMvisor-Installer-7.0U2a-17867351.x86_64.iso
VMware-VMvisor-Installer-7.0U3c-19193900.x86_64.iso

VCSA

VMware-VCSA-all-6.5.0-19261680.iso
VMware-VCSA-all-6.0.0-14518058.iso
VMware-VCSA-all-6.0.0-7977899.iso
VMware-VCSA-all-6.0.0-9451619.iso
VMware-VCSA-all-6.5.0-10964411.iso
VMware-VCSA-all-6.5.0-13638625.iso
VMware-VCSA-all-6.5.0-9451637.iso
VMware-VCSA-all-6.5.0-8307201.iso
VMware-VCSA-all-6.5.0-14836121.iso
VMware-VCSA-all-6.7.0-18831133.iso
VMware-VCSA-all-6.7.0-18010531.iso
VMware-VCSA-all-6.7.0-17138064.iso
VMware-VCSA-all-6.7.0-16708996.iso
VMware-VCSA-all-6.7.0-15976714.iso
VMware-VCSA-all-6.7.0-14367737.iso
VMware-VCSA-all-6.7.0-14836122.iso
VMware-VCSA-all-6.7.0-14070457.iso
VMware-VCSA-all-6.7.0-13643870.iso
VMware-VCSA-all-6.7.0-11726888.iso
VMware-VCSA-all-6.7.0-19300125.iso
VMware-VCSA-all-7.0.0-15952498.iso
VMware-VCSA-all-7.0.1-17327517.iso
VMware-VCSA-all-7.0.2-17958471.iso
VMware-VCSA-all-7.0.2-17694817.iso
VMware-VCSA-all-7.0.2-18455184.iso
VMware-VCSA-all-7.0.2-18356314.iso
VMware-VCSA-all-7.0.3-18778458.iso
VMware-VCSA-all-7.0.3-19234570.iso

PM系列阵列卡-ISO

ESXi-6.5.0-20190804001-standard-customized-pm8222.iso
ESXi-6.5.0-20190804001-standard-customized-pm8060.iso
ESXi-6.7.0-20191204001-standard-customized-pm8060.iso
ESXi-6.7.0-20191204001-standard-customized-pm8222.iso
ESXi-7.0U3c-19193900-standard-customized-pm8222.iso

OEM ISO (Lenovo、dell、inspur、cisco、hpe)

VMware-VMvisor-Installer-6.5.0.update03-18071574.x86_64-DellEMC_Customized-A08.iso
VMware_ESXi_6.5.0_Update3_13932383_Inspur_20200401.iso
VMware_ESXi_6.5.0_13932383_Custom_Cisco_6.5.3.1.iso
VMware-ESXi-6.7.0-Update3-18828794-HPE-Synergy-670.U3.10.8.6.1-Nov2021.iso
VMware-ESXi-6.5.0-Update3-18678235-HPE-Gen9plus-650.U3.10.8.0.36-Oct2021.iso
VMware-ESXi-6.5.0-Update3-18678235-HPE-Synergy-650.U3.10.8.5.11-Nov2021.iso
VMware-ESXi-6.5.0.update03-16576891-LNV-20200902.iso
VMware-ESXi-6.5.0-Update3-13932383-HPE-preGen9-650.U3.9.6.8.8-Jun2019.iso
VMware-VMvisor-Installer-7.0.0.update03-19193900.x86_64-DellEMC_Customized-A02.iso
VMware-ESXi-7.0.3-19193900-HPE-703.0.0.10.8.6.3-Jan2022-Synergy.iso
VMware-ESXi-7.0.3-19193900-HPE-703.0.0.10.8.1.3-Jan2022.iso
VMware_ESXi_7.0.2_17867351_LNV_20210717.iso
VMware-ESXi-7.0.3-Custom-Cisco-4.2.1-a.iso
Inspur_ESXI_7.0.2-2.iso
VMware-ESXi-6.7.0-Update3-18828794-HPE-Gen9plus-670.U3.10.8.1.2-Nov2021.iso
VMware-ESXi-6.7.0-17700523-Custom-Cisco-6.7.3.1.iso
VMware-VMvisor-Installer-6.7.0.update03-17700523.x86_64-DellEMC_Customized-A15.iso
VMware-ESXi-6.7.0.update03-17700523-LNV-20211116.iso
VMware_ESXi_6.7.0_8169922_Inspur_20200424.iso

神秘代码

VMware vSphere ESXi 7.0 Enterprise Plus
================================
JJ2WR-25L9P-H71A8-6J20P-C0K3F
HN2X0-0DH5M-M78Q1-780HH-CN214
JH09A-2YL84-M7EC8-FL0K2-3N2J2
VMware vCenter 7.0 Standard
============================
104HH-D4343-07879-MV08K-2D2H2
410NA-DW28H-H74K1-ZK882-948L4
406DK-FWHEH-075K8-XAC06-0JH08
VMware VSAN 7.0 Enterprise Plus
============================
HN0D8-AAJ1Q-07D00-6U924-CX224
50008-221DH-M7E99-A9CKM-A1030
HN0NH-62051-H75E9-P38RM-0H870
VMware vSphere 7 Enterprise Plus with Add-on for Kubernetes
============================================
J1608-4GJEQ-071L8-9VA0H-2MUK6
M10DH-8YL47-474L1-DV3U0-8H054
MM4MR-2G005-H7039-JVCAP-2RAL8
NSX企业版
UC3RA-D3XD4-H817Z-UEMNG-WC0WF
VSAN企业版    
NF4HH-F1K1Q-488R0-3L954-AF828

5,Horizon

点击下载

版本信息:

Horizon 6.1
Horizon 6.2
Horizon 7.0
Horizon 7.1
Horizon 7.2
Horizon 7.3
Horizon 7.4
Horizon 7.5
Horizon 7.6
Horizon 7.7
Horizon 7.8
Horizon 7.9
Horizon 7.10
Horizon 7.11
Horizon 7.12
Horizon 7.13
Horizon 7.13.2
Horizon 2006
Horizon 2103
Horizon 2106
Horizon 2111-ESB
备注:需要获取更多VMware信息,点击这里VMware常用连接

6,Ubuntu

点击下载

版本信息:

ubuntu-14.04.6-desktop-amd64.iso
ubuntu-14.04.6-server-amd64.iso
ubuntu-16.04.6-desktop-amd64.iso
ubuntu-16.04.6-server-amd64.iso
ubuntu-18.04-desktop-amd64.iso
ubuntu-18.04-server-amd64.iso
ubuntu-18.04.1-desktop-amd64.iso
ubuntu-18.04.1-server-amd64.iso
ubuntu-18.04.2-desktop-amd64.iso
ubuntu-18.04.2-server-amd64.iso
ubuntu-18.04.3-desktop-amd64.iso
ubuntu-18.04.3-server-amd64.iso
ubuntu-18.04.4-desktop-amd64.iso
ubuntu-18.04.4-server-amd64.iso
ubuntu-18.04.5-desktop-amd64.iso
ubuntu-18.04.5-server-arm64.iso
ubuntu-18.04.6-desktop-amd64.iso
ubuntu-18.10-desktop-amd64.iso
ubuntu-18.10-server-arm64.iso
ubuntu-19.04-desktop-amd64.iso
ubuntu-19.04-server-amd64.iso
ubuntu-19.10-desktop-amd64.iso
ubuntu-19.10-server-amd64.iso
ubuntu-20.04-desktop-amd64.iso
ubuntu-20.04.1-desktop-amd64.iso
ubuntu-20.04.1-live-server-amd64.iso
ubuntu-20.04.2-desktop-amd64.iso
ubuntu-20.04.2-live-server-amd64.iso
ubuntu-20.04.3-desktop-amd64.iso
ubuntu-20.10-desktop-amd64.iso
ubuntu-20.10-live-server-amd64.iso
ubuntu-21.04-desktop-amd64.iso
ubuntu-21.04-live-server-amd64.iso
ubuntu-21.10-desktop-amd64.iso
ubuntu-21.10-live-server-amd64.iso

7,Oracle Linux

点击下载

版本信息:

OracleLinux-Release6-Update0-x86_64-dvd.iso
OracleLinux-Release6-Update1-x86_64-dvd.iso
OracleLinux-Release6-Update2-x86_64-dvd.iso
OracleLinux-Release6-Update3-x86_64-dvd.iso
OracleLinux-Release6-Update4-x86_64-dvd.iso
OracleLinux-Release6-Update5-x86_64-dvd.iso
OracleLinux-Release6-Update6-x86_64-dvd.iso
OracleLinux-Release6-Update7-x86_64-dvd.iso
OracleLinux-Release6-Update8-x86_64-dvd.iso
OracleLinux-Release6-Update9-x86_64-dvd.iso
OracleLinux-Release6-Update10-x86_64-dvd.iso
OracleLinux-Release7-Update0-x86_64-dvd.iso
OracleLinux-Release7-Update1-x86_64-dvd.iso
OracleLinux-Release7-Update2-x86_64-dvd.iso
OracleLinux-Release7-Update3-x86_64-dvd.iso
OracleLinux-Release7-Update4-x86_64-dvd.iso
OracleLinux-Release7-Update5-x86_64-dvd.iso
OracleLinux-Release7-Update6-x86_64-dvd.iso
OracleLinux-Release7-Update7-x86_64-dvd.iso
OracleLinux-Release7-Update8-x86_64-dvd.iso
OracleLinux-Release7-Update9-x86_64-dvd.iso
OracleLinux-Release8-Update0-x86_64-dvd.iso
OracleLinux-Release8-Update0-x86_64-dvd.iso
OracleLinux-Release8-Update1-x86_64-dvd.iso
OracleLinux-Release8-Update2-x86_64-dvd.iso
OracleLinux-Release8-Update3-x86_64-dvd.iso
OracleLinux-Release8-Update4-x86_64-dvd.iso
OracleLinux-Release8-Update5-x86_64-dvd.iso

8,SUSE

点击下载

SLES-11-SP3-DVD-x86_64-GM-DVD1.iso
SLES-11-SP4-DVD-x86_64-GM-DVD1.iso
SLE-12-SP2-Server-DVD-x86_64-GM-DVD1.iso
SLE-12-SP3-Server-DVD-x86_64-GM-DVD1.iso
SLE-12-SP4-Server-DVD-x86_64-GM-DVD1.iso
SLE-15-Installer-DVD-x86_64-GM-DVD1.iso
SLE-15-Installer-DVD-x86_64-GM-DVD2.iso
SLE-15-Packages-x86_64-GM-DVD1.iso
SLE-12-SP5-SAP-DVD-x86_64-GM-DVD1.iso

9,nVidia-vGPU驱动-许可程序

点击下载

驱动

NVIDIA-GRID-vSphere-6.5-410.122-412.38.zip
NVIDIA-GRID-vSphere-6.7-410.122-412.38.zip
NVIDIA-GRID_vSphere-6.7-418.66-418.70-425.31.zip
NVIDIA-GRID-Windows-418.70-425.31.zip
NVIDIA-GRID-vSphere-6.5-418.66-418.70-425.31.zip
NVIDIA-GRID-vSphere-6.5-430.27-430.30-431.02.zip
NVIDIA-GRID-vSphere-6.7-430.27-430.30-431.02.zip
NVIDIA-GRID-Linux-KVM-430.46-431.79.zip
NVIDIA-GRID-Windows-430.46-431.79.zip
NVIDIA-GRID-vSphere-6.5_410.107-412.31.zip
NVIDIA-GRID-Windows_410.107-412.31.zip
NVIDIA-GRID-vSphere-6.7-390.113-390.115-392.37.zip
NVIDIA-GRID-vSphere-6.5-390.113-390.115-392.37.zip
NVIDIA-GRID-vSphere-6.7_410.107-412.31.zip
NVIDIA-GRID-vSphere-7.0-450.142-450.142.00-453.10.zip
NVIDIA-GRID-vSphere-7.0-470.82-470.82.01-472.39.zip
NVIDIA-GRID-Linux-KVM-450.80-450.80.02-452.39.zip
NVIDIA-GRID-Linux-KVM-470.82-470.82.01-472.39.zip
NVIDIA-GRID-RHEL-7.9-470.103.02-470.103.01-472.98.zip
NVIDIA-GRID-vSphere-6.7-450.55-450.51.05-451.48.zip
NVIDIA-GRID-vSphere-6.7-460.32.04-460.32.03-461.33.zip
NVIDIA-GRID-vSphere-6.5-450.102-450.102.04-452.77.zip

许可服务器

NVIDIA-ls-linux-2021.07-2021.07.0.30193485.zip
NVIDIA-ls-linux-2018.10.0.25098346.zip
NVIDIA-ls-windows-2018.10.0.25098346.zip
NVIDIA-ls-linux-2019.05.0.26416627.zip
NVIDIA-ls-windows-64-bit-2019.05.0.26416627.zip
NVIDIA-ls-linux-2020.05.0.28406365.zip
NVIDIA-gpumodeswitch-2016-04.zip

10,SQL Server

点此下载

cn_sql_server_2008_r2_enterprise_x86_x64_ia64_dvd_522233.iso
cn_sql_server_2012_enterprise_core_edition_with_sp1_x64_dvd_1234496.iso
cn_sql_server_2012_enterprise_edition_with_sp1_x86_dvd_1458050.iso
cn_sql_server_2014_enterprise_edition_with_service_pack_1_x64_dvd_6669544.iso
cn_sql_server_2014_enterprise_edition_with_service_pack_2_x64_dvd_8962407.iso
cn_sql_server_2016_enterprise_with_service_pack_1_x64_dvd_9538279.iso
cn_sql_server_2016_enterprise_x64_dvd_8699450.iso
cn_sql_server_2019_enterprise_x64_dvd_2bfe815a.iso
zh-hans_sql_server_2008_enterprise_x86_x64_ia64_dvd_x14-89199.iso

11,Debian

点此下载

debian-10.0.0-amd64-DVD-1.iso
debian-10.0.0-amd64-DVD-2.iso
debian-10.0.0-amd64-DVD-3.iso
debian-10.1.0-amd64-DVD-1.iso
debian-10.1.0-amd64-DVD-2.iso
debian-10.1.0-amd64-DVD-3.iso
debian-10.10.0-amd64-DVD-1.iso
debian-10.10.0-amd64-DVD-2.iso
debian-10.10.0-amd64-DVD-3.iso
debian-10.11.0-amd64-DVD-1.iso
debian-10.11.0-amd64-DVD-2.iso
debian-10.11.0-amd64-DVD-3.iso
debian-10.2.0-amd64-DVD-1.iso
debian-10.2.0-amd64-DVD-2.iso
debian-10.2.0-amd64-DVD-3.iso
debian-10.3.0-amd64-DVD-1.iso
debian-10.3.0-amd64-DVD-2.iso
debian-10.3.0-amd64-DVD-3.iso
debian-10.4.0-amd64-DVD-1.iso
debian-10.4.0-amd64-DVD-2.iso
debian-10.4.0-amd64-DVD-3.iso
debian-10.5.0-amd64-DVD-1.iso
debian-10.5.0-amd64-DVD-2.iso
debian-10.5.0-amd64-DVD-3.iso
debian-10.6.0-amd64-DVD-1.iso
debian-10.6.0-amd64-DVD-2.iso
debian-10.6.0-amd64-DVD-3.iso
debian-10.7.0-amd64-DVD-1.iso
debian-10.7.0-amd64-DVD-2.iso
debian-10.7.0-amd64-DVD-3.iso
debian-10.8.0-amd64-DVD-1.iso
debian-10.8.0-amd64-DVD-2.iso
debian-10.9.0-amd64-DVD-1.iso
debian-10.9.0-amd64-DVD-2.iso
debian-10.9.0-amd64-DVD-3.iso
debian-11.0.0-amd64-DVD-1.iso
debian-11.1.0-amd64-DVD-1.iso
debian-11.2.0-amd64-DVD-1.iso
debian-7.5.0-i386-DVD-1.iso
debian-7.5.0-i386-DVD-2.iso
debian-7.5.0-i386-DVD-3.iso
debian-7.8.0-amd64-DVD-1.iso
debian-7.8.0-amd64-DVD-2.iso
debian-7.8.0-amd64-DVD-3.iso
debian-7.8.0-i386-DVD-1.iso
debian-7.8.0-i386-DVD-2.iso
debian-7.8.0-i386-DVD-3.iso
debian-9.12.0-amd64-DVD-1.iso
debian-9.12.0-amd64-DVD-2.iso
debian-9.12.0-amd64-DVD-3.iso
debian-9.13.0-amd64-DVD-1.iso
debian-9.3.0-amd64-DVD-1.iso
debian-9.3.0-amd64-DVD-2.iso
debian-9.3.0-amd64-DVD-3.iso
debian-9.3.0-i386-DVD-1.iso
debian-9.3.0-i386-DVD-2.iso
debian-9.3.0-i386-DVD-3.iso
debian-9.4.0-amd64-DVD-1.iso
debian-9.4.0-amd64-DVD-2.iso
debian-9.4.0-amd64-DVD-3.iso
debian-9.5.0-amd64-DVD-1.iso
debian-9.5.0-amd64-DVD-2.iso
debian-9.5.0-amd64-DVD-3.iso

12,VMware converter

点击下载

VMware-converter-all-5.0.0-470252.exe
VMware-converter-all-5.0.1-875114.exe
VMware-converter-en-5.1.0-1087880.exe
VMware-converter-en-5.5.0-1362012.exe
VMware-converter-en-5.5.3-2183569.exe
VMware-converter-en-6.0.0-2716716.exe
VMware-converter-en-6.1.1-3533064.exe
VMware-converter-en-6.2.0-7348398.exe
VMware-converter-en-6.2.0-8466193.exe