分类 存储 下的文章

所有的SAN网络都是由小至大,在SAN网络初期,必须对DomainID有一个统一的规划。
如果一台接入交换机设置了Insistent DoaminID 参数同时与现有网络内其他交换机相同的DomainID,当他接入时会发生将另一台未设置IDID参数的交换机的DomainID冲掉的情形,引起不必要的业务中断,因此建议将所有的交换机统一设置Insistent DomainID。

[scode type="share"]全屏查看,浏览效果更佳,回复评论下载附件[/scode]

下面是详细配置文档

最近,发现联想DM存储的ONTAP系统更新到9.7了,就想升级体验下,毕竟实验室的设备还是比较全的。
在support.lenovo.com网站中,通过存储的序列号下载好镜像之后,上传到存储中。

正在上传,一切正常

03717-cvu6v33dqz.png

忽然报错

65104-nuqrac6aw9.png

联系netapp原厂工程师,得到如下解决方案
通过ssh登录管理IP,先进入诊断模式

set diag

分别对两个节点都执行

system services web file-uploads config modify -node node名称 -size 4GB

比如我的

38646-wap766byql.png

然后再退出诊断模式

set admin

重新登录管理界面,继续上传,上传成功!

31512-3s4va4wsuv4.png

升级成功

49530-d6gic0j48j.png

分布式存储的定义

分布式存储系统,是将数据分散存储在多台独立的X86服务器上,通过通用的存储协议对外提供FC、ISCSI、RBD、NAS、S3等存储接口,每个存储服务器节点既能够进行数据存放和性能加速,也同时提供数据控制和存储接口对接,没有单点故障,每个节点都可以对外提供数据吞吐,性能随着存储节点的增多会线性上升,分布式存储系统采用可扩展的系统结构,利用多台存储服务器分担存储负荷,它不但提高了系统的可靠性、可用性和存取效率,并且易于扩展。

拓扑架构:

75356-q5gg0kvsptf.png

集中式存储的定义

集中式存储系统指由一台或多台主控制器组成中心节点,各数据设备级联部署,数据集中存储于这个中心节点中,并且整个系统的所有业务单元都集中部署在这个中心节点上,系统所有的功能均由其集中处理,中心节点统一对外提供FC、ISCSI、NAS存储接口。也就是说,集中式系统中,每个终端或客户端及其仅仅负责数据的录入和输出,而数据的存储与控制处理完全交由主机来完成。集中式系统最大的特点就是部署结构简单。

拓扑架构:

40865-69mjqlkfpgq.png

集中式存储与分布式存储的对比

传统集中式存储架构的局限性主要体现在以下几个方面:

  1. 横向扩展性较差
    受限于前端控制器的对外服务能力,纵向扩展磁盘数量无法有效提升存储设备对外提供服务的能力。同时,前端控制器横向扩展能力非常有限,业界最多仅能实现几个控制器的横向。因此,前端控制器成为整个存储性能的瓶颈。
  2. 不同厂家传统存储之间的差异性带来的管理问题
    不同厂商设备的管理和使用方式各有不同,由于软硬件紧耦合、管理接口不统一等限制因素无法做到资源的统一管理和弹性调度,也会带来存储利用率较低的现象。因此,不同存储的存在影响了存储使用的便利性和利用率。
  3. 数据安全
    传统存储采用RAID安全技术,RAID安全技术已经无法满足现有数据安全需求,且不能保障跨盘柜的数据安全。而且一旦硬盘或机柜损坏,等待维修时间较长,有些专用存储设备必须等厂家人员维修,不仅耗时而且成本较高。
  4. 信息孤岛
    传统存储针对各个应用系统提供分散的存储解决方案,它们相互之间相互独立,毫无关联,不能实现数据的共享和互通。
  5. 存储扩容和数据迁移
    传统存储多采用集中式专用存储设备,初次购买的机头就限制了存储的性能和容量,如果需要扩容,必须重新购买。一旦寿命将近,还面临大规模数据迁移工作,耗费管理人员大量精力,还有数据丢失的风险。
  6. 管理问题
    分散的存储系统,同样给系统管理人员带来更大的管理难度和更多的工作量。
  7. 传统存储设备升级、维护成本高昂
    EMC、NETAPP、IBM、华为等在传统存储时代是非常成功的产品,当然也有着不菲的价格,后期的升级、维护、配件更换的成本也一直被人诟病,客户也一直有一种被绑架的感觉,完全没有给予到消费者应有的自由选择权利。而且,传统存储的扩容受限于机头性能,无法实现线性的无限扩容,无法满足现有存储每年激增的需求。

分布式存储优势:

分布式存储往往采用分布式的系统结构,利用多台存储服务器分担存储负荷,利用元数据定位存储信息。它不但提高了系统的可靠性、可用性和存取效率,还易于扩展,将通用硬件引入的不稳定因素降到最低。优点如下:

  1. 高可靠性
    分布式存储整个系统无任何的单点故障,数据安全和业务连续性得到保障。每个节点设备之间有专门的数据保护策略,可实现系统的设备级冗余,并且可在线更换损坏的硬盘或者节点设备。
    采用副本模式对数据形成保护,数据在写入后会按需生成多份副本,并根据设置将数据主从副本存储在不同的硬盘、服务器、机柜、 机房中,以此保证在硬盘损坏、服务器损坏、机柜损坏、机房故障情况下,数据的安全性以及业务的连续性,支持用户数据按照设定的1到6副本进行冗余存储。布式存储系统可按需设置存储池的保护策略(数据副本数量)以及硬盘离线超时时间,最大可支持 6 副本。与传统存储 RAID 机制比较,数据副本策略可屏蔽由于硬盘损坏而造成的数据恢复缓慢、恢复过程中存储卷不可用、多块硬盘同时损坏的数据丢失风险,单点故障系统不会丢失数据,带来更高的数据安全。
    通过强一致性复制协议来保证数据多个副本的一致性。正常情况下保证每个副本上的数据都是完全一致的,从任意副本读到的数据都是相同的。如果系统中的某个硬盘出现短暂故障,存储系统会暂时不写这个硬盘上的数据,通过日志记录的方式,记录此硬盘上数据的变化,等硬盘恢复后通过日志信息恢复该硬盘上的数据,如果硬盘长时间或者永久故障,存储系统会将硬盘从存储系统中移除掉,并统计出此硬盘上所有数据的副本位置,将这些丢失数据恢复到其它服务器的硬盘中。
    副本技术优势如下:
    文件多副本同时写入物理硬盘后返回前端数据写入完成,可增强数据整 体安全性,避免由于机房断电造成的数据丢失。
    可自由设置硬盘离线超时时间,避免硬盘更换后的大量数据迁移,保证 业务系统的优先性。
    数据恢复效率高,可一小时内完成 4TB 硬盘的恢复。
    对于容量需求较大的应用我们采取纠删码的磁盘保护技术,EC(Erasure Coding,纠删码)技术是将一份数据切分成 N 块原始数据, 基于 N 块原始数据计算获得 M 块冗余数据,并将 N+M 块数据分别存放在存储 系统中的不同存储节点上,当其中任意M块数据(N+M 块数据中任意的M块数据)丢失时,存储系统可通过数据恢复算法将丢失的 M 块数据恢复,实现冗余和容错的目的。
    分布式存储系统支持 N+M 格式的纠删码,用户可根据需求自定义 N 和 M 的数量,N 代表原始数据块数量,M 代表在不发生数据丢失的前提下,存储系统所允许发生的同时故障的数据块数量,即同时故障的节点数量。技术优势如下:
    纠删码的存储空间利用率高,最高可达到 90%以上
    纠删码数据保护机制不对 N+M 做任何限制(服务器数量满足的情况下),可确保更高的存储得盘率和灵活度。
  2. 高性能
    高性能,相比传统存储而言提供高出数倍的聚合IOPS和吞吐量,另外可以随着存储节点的扩容而线性的增长,每个存储节点都可以对外提供业务吞吐,专用的元数据模块可以提供非常快速精准的数据检索和定位,满足前端业务快速响应的需求;
    提供高性能的缓存技术,缓存管理基于SSD Cache 而非Cache Tier模式,可灵活定义每个HDD与SSD的缓存关系,精确到具体某一个SSD磁盘和对应的容量。
    提供KVM及XEN虚拟化平台的专用RBD高速存储接口,其中RBD能提供更为优异的低延迟、高IOPS带宽,确保虚拟化平台的高性能,对虚拟化架构的RBD接口进行优化设计,性能更高。
  3. 高可用
    从控制层面、数据层面和访问层面提供高可用保障,确保没有单点故障,为iSCSI、FC传统企业接口设计了MPIO功能,为ISCSI提供VIP功能,提升数据链路可用性,当其中一条路径发生故障时,数据自动切换到另一条路径上,链路恢复时自动切换回来,切换过程中业务不感知存储的但路径故障。
    集群硬件异常时,或者进行硬件更换维护时,分布式存储进入recovery 状态,分布式存储能对Recovery IO进行控制,并制定策略,根据用户需求保证业务IO或Recovery IO正常进行。
  4. 高可扩展
    得益于合理的分布式架构,分布式存储可预估并且弹性扩展计算、存储容量和性能。分布式存储的水平扩展有以下几个特性:
    1) 节点扩展后,旧数据会自动迁移到新节点,实现负载均衡,避免单点过热的情况出现;
    2) 水平扩展只需要将新节点和原有集群连接到同一网络,整个过程不会对业务造成影响;
    3) 当节点被添加到集群,集群系统的整体容量和性能也随之线性扩展,此后新节点的资源就会被管理平台接管,被用于分配或者回收。
  5. 易扩展
    系统可以支持在线无缝动态横向扩展,在采用冗余策略的情况下任何一个存储节点的上线和下线对前端的业务没有任何的影响,完全是透明的,并且系统在扩充新的存储节点后可以选择自动负载均衡,所有数据的压力均匀分配在各存储节点上。
    可以支持在线扩容,不仅可以垂直纵向扩容,更换高性能磁盘或者大容量,来纵向提升性能和容量;还可以不断增加节点,线性提升集群性能和容量。分布式存储架构具有良好的可扩展性,支持超大容量的存储:
    扩容存储节点后不需要做大量的数据搬迁,系统可以快速达到负载均衡状态。
    灵活的扩容方式,可以独立扩容计算节点、硬盘、存储节点,或者同时进行扩容。
    机头、存储带宽和Cache都均匀分布到各个节点上,系统IOPS、吞吐量和Cache随着节点的扩容而线性增加。
    系统自动将每个卷的数据块打散存储在不同服务器的不同硬盘上,冷热不均的数据会均匀分布在不同的服务器上,不会出现集中的热点。扩容节点或者故障减容节点时,数据恢复重建算法保证了重建后系统中各节点负载的均衡性。
  6. 开放兼容
    遵循软硬件解耦的基本原则,服务器可以采用任意品牌,兼容各种服务器品牌,采用硬件无关设计,对SSD、NVMe等硬盘全兼容,兼容主流RAID、HBA卡。底层支持主流Linux系统,RHEL、CentOS、中标麒麟等。支持VMware、Xen和Hyper等主流虚拟化技术,并支持OpenStack、CloudStack等云平台技术。
  7. 多应用接口
    分布式存储可提供统一存储架构,在一套存储系统中实现按需提供块、文件和对象融合存储服务能力。块存储:提供RBD、SCSI、iSCSI以及FC标准接口,支持广泛的虚拟化平台和数据库应用,提供高性能、高扩展能力,满足基础设施、数据库以及开发测试等场景对SAN的需求;非结构化存储:提供CIFS、NFS、FTP、S3标准接口,以高性能、大规模横向扩展能为用户提供非结构化数据共享存储资源,应用于海量视频存储、备份归档等场景。
  8. 存储系统标准化
    随着分布式存储的发展,存储行业的标准化进程也不断推进,分布式存储针对私有云虚拟化架构可采用行业标准接口(RBD Cinder)进行存储接入。在平台层面,通过将异构存储资源进行抽象化,将传统的存储设备级的操作封装成面向存储资源的操作,从而简化异构存储基础架构的操作,以实现存储资源的集中管理,并能够自动执行创建、变更、回收等整个存储生命周期流程。

 为存储配置多路径,各位工程师都不陌生。在Linux下配置multipath,更不在话下,mpathconf --enable 一条命令走天下,更是老手的惯例,因为mpatha、mpathb、mpathc、这种名称也不会影响使用。但是,给存储卷定义别名就显得不那么粗狂,使用厂商推荐的多路径参数,更显得专业,现在配置多路径的自动化交互式脚本横空出世,极大的方便了各位工程师。

Linux下配置网卡聚合交互式自动配置脚本

之前写了手动配置多路径的文档Linux操作系统配置多路径通用教程
[scode type="red"]仅适用于初次配置![/scode] 

脚本功能:

1.多路径辅助配置脚本适用于FC-SAN和IP-SAN
2.支持联想 DM、DE系列、DS系列、Storwize V系列
3.支持NetApp FAS、E系列,IBM Storwize V系列、FS系列
4.支持华为OceanStor系列,浪潮G2系列
5.支持戴尔 MD系列、SC系列,宏杉MS系列
6.支持惠普 3PAR系列、MSA 1040、1050、2040、2050系列
7.其他品牌和型号,使用操作系统生成的默认多路径参数
8.支持CentOS 6.x/7.x/8.x RedHat 6.x/7.x
9.支持中英选择

5月14日更新:

修复Lenovo DE系列存储新版本微码下20m管理分区的识别
优化判断逻辑

4月16日更新:

1,新增支持CentOS 8.x/RedHat 8.x
2,优化多个判断逻辑
备注:因为存储厂商目前并未适配8系列系统,我多次测试使用7系列的官方参数,会有问题。
所以会默认使用8系列系统生成的多路径参数,不加入任何官方参数。

[scode type="blue"]已付费用户,联系我获取最新版本,或者有其他需求,如增加功能,或者修改直接联系我即可[/scode]

linux 8系列下部分截图

39882-38g6si1hxuf.png

00426-7ajrlw1qvlc.png

[scode type="blue"]上述列出的品牌及型号,会使用厂商推荐的最佳多路径参数,没有列出的品牌和型号,则使用操作系统生成的默认多路径参数,如你使用的存储不被支持,则会有相应的提示![/scode]

在使用的过程中如果遇到什么问题,或有什么建议或者需要增加品牌或者型号的参数,加我微信交流,微信二维码在文章底部。

部分截图:

72245-ulijo5dydc.png

69257-s6gehd62tcb.png

04657-pysozkg51r.png

41654-hwm6xkglsiu.png

59342-oz6m3r7btq.png

38546-7k1sjoa1ugj.png

屏蔽20M管理分区截图:

02765-zez5w5pyw3.png

惠普3PAR存储 选择主机定义截图:

04779-ijslxwx30qp.png

[scode type="blue"]创作脚本不易,打赏后获取脚本下载链接!获取后加我微信,后续更新版本,会通过微信传递[/scode]

存储配置命令

设置服务IP:

satask chserviceip -serviceip 192.168.70.121 -gw 192.168.70.1 -mask 255.255.255.0

重置密码:

satask resetpassword

配置集群:

satask mkcluster -clusterip 192.168.70.125 -gw 192.168.70.1 -mask 255.255.255.0

重启web服务命令

satask restartservice -service tomcat

没有足够的空间来存储软件更新文件

cleardumps -prefix /home/admin/upgrade

清除dump日志

cleardumps -prefix /dumps/

CLI配置阵列

1,新建池

mkmdiskgrp -ext 1024 -guiid 0 -name pool -warning 80%

2,新建阵列

mkarray -level raid5 -drive 0:1:2:3:4:5:6:7:8:9 pool

3,新建分布式阵列

mkdistributedarray -level raid6 -driveclass 3 -drivecount 40 pool

升级微码报错解除命令

applysoftware -abort

存储位图空间不够

chiogrp -feature flash -size 256 io_grp0
chiogrp -feature flash -size 256 io_grp1
chiogrp -feature remote -size 256 io_grp0
chiogrp -feature remote -size 256 io_grp1

将 I/O 组 0 中的 RAID 内存量更改为 512 MB 的调用示例

chiogrp -feature raid -size 512 0

重置机柜标识命令

(任意一个即可)

satask chenclosurevpd -resetclusterid
satask chvpd -resetclusterid

解决v系列风扇问题

命令1 

svctask chenclosurecanister -reset -canister 1 1

命令2

svctask chenclosurecanister -reset -canister 2 1

备注:升级微码,一劳永逸。

环境:ONTAP 9.6 AD:Windows 2016

  要求:公司购买一台dm3000h,跑nas存放资料,三个部门,每个部门都需要单独的文件夹,部门之间无法互相访问,并且部门成员只有使用共享文件夹的权限,无共享配置权限。部门内部,不同的成员权限不同。

存储初始化以及创建SVM参考博客内的文章,此次主要以权限配置为主。

CIFS如何加域,参考这里LenovoNetapp ONTAP Select系列教程(四)之配置SMB/CIFS

一,配置基本环境

1,创建部门组织单位,分别是:Finance DepartmentSales DepartmentTechnology Department,每个组织单位包含一个组,每个组下有不同人数的成员。各部门的成员加入各自组织单位下的组。

12429-aioxtt0yt9.png

财务部成员

36207-yi9o8yldmz.png

销售部成员

03723-5bk5uc6abu.png

技术部成员

28585-m9tfaj2i5d.png

2,创建各部门的共享文件夹,分别是financesalestechnology

27852-d95261h2kf.png

3,打开域控用户管理器,点击Computers,选中CIFS服务器,右键,点击管理。

08928-5u9l6rlgjvu.png

出现cifs服务器上配置的3个共享文件夹

68861-csys82y1l4i.png

4,右键单击finance文件夹,点击属性,点击安全标签,单击右下角高级,弹出高级安全设置窗口,

61829-a4vchi405v.png

点击左下角添加,单击选择主体,输入组名称:Administrator,单击确定,

98360-jfybyg220qp.png

在基本权限中,单击完全控制,点击确定

51330-mcpxlgvdes.png

删除Everyone的权限,点击确定。这样域控的管理员有了对共享文件夹的完全控制权限

37734-fhqz9m5r407.png

5,单击共享权限标签,取消Everyone的完全控制权限

93600-41poo28gx4c.png

重复上述4-5步,配置其他共享文件夹权限

二,配置各部门的权限

1,在CIFS服务器管理界面中,打开finance文件夹属性,点击安全标签,单击高级,点击左下角添加,点击选择主体,输入:财务部,单击确定

70852-3b9si73jmjr.png

2,在权限配置栏中,选择相应的权限,此处,我给了除读取权限更改权限取得所有权之外的其他权限,正式环境中,根据需求选择即可,如需细分用户权限,看第三部分。

49380-5xuia5tbyd9.png

重复上述步骤设置salestechnology的权限

3,测试文件夹权限,由于篇幅关系,我只测试一个组。

登录财务部门的fduser002用户,在浏览器中打开\\cifs,出现三个部门的共享文件夹。

25858-847v85wtf1p.png

可以正常打开财务部所属的共享文件夹,正常新建,编辑,删除文件,正常新建,删除文件夹。

54566-p99y50ld84h.png

测试打开销售部门文件夹,提示无权限

82191-nylouf3ga1t.png

测试打开技术部门文件夹,提示无权限

91780-sw5l5w94bsf.png

测试用fduser002用户编辑文件夹权限,提示无权限

85515-6zxfvufi86d.png

三,配置独立用户权限

根据上述配置只能统一配置各部门权限,现在要求部门领导可以更改权限,某些用户无法删除文件等等要求。

要求:sduser001是部门领导,需要能更改权限,sduser002是实习生,不能随意删除文件。

1,在sales文件夹的权限中添加sduser001的权限为完全控制

64423-ua92zqnwpsa.png

2,在sales文件夹的权限中删除销售组,添加sduser002用户,取消删除权限,因为组的权限级别优先于用户,不删除组,用户权限继承于组,我这里用户就两个,如果用户较多,那么相同的权限放到同一组,不同的权限建立不同的组,这样只加入组即可,不用一个一个的添加用户设置权限

47232-dexv4osij9a.png

3,在共享权限标签中,添加sduser001,权限为完全控制

94234-mopkde5wbte.png

4,测试权限

sduser001可以正常编辑权限,赋予user001账号所有权限。

48683-qfs7bcgjhr.png

sduser002 无法删除文件和文件夹

34269-ptgcyekg6xo.png

  联想的DE系列存储配置非常简单,和以前的ibm ds系列配置方式一样,并且现在加入了web界面,还是中文,简直就是即点击用的设备。可见联想为了方便用户做了多少优化工作。即便是这样简单,但是还是有人一直在找教程,这里写一下,方便大家。

Linux下交互式多路径自动化配置脚本发布

一、初始化存储

1,连接存储
使用网线将控制器 A 端口( P1 )连接到笔记本电脑的以太网端口,笔记本配置以下地址
IP 地址: 192.168.128.100
子网掩码: 255.255.255.0
[scode type="yellow"]备注:根据固件版本配置相应网段,如果不知道固件版本,先配置成192段,尝试长ping。不通再配置为169段。联想改IP换logo,还是很拿手的![/scode]

对于固件版本11.50和更早版本:
控制器1(端口1):IP地址:192.168.128.101
控制器1(端口2):IP地址:192.168.129.101
控制器2(端口1):IP地址:192.168.128.102
控制器2(端口2):IP地址:192.168.129.102

对于固件版本11.60及更高版本:
控制器1(端口1):IP地址:169.254.128.101
控制器1(端口2):IP地址:169.254.129.101
控制器2(端口1):IP地址:169.254.128.102
控制器2(端口2):IP地址:169.254.129.102

68360-bhrbx55hi1o.png

在浏览器中输入:https://192.168.128.101 输入自定义的用户名及密码,然后点击设置密码。

72030-n3ffer5pt4o.png

2,填写基本信息

23797-e38vdmsumya.png

可以后面自行配置池

92477-i63koonpaci.png

一直下一步即可

06853-ae3b8xlk28f.png

二,配置存储

1,配置池或阵列

59469-57coyuux7hj.png

de系列存储支持Dynamic Disk Pools (DDP)功能,这个功能类似于IBM v系列存储的分布式raid,但是又有区别。

池类似卷组,但具有以下区别:

a,池中的数据随机存储在池中的所有驱动器上,而卷组中的数据则不同,存储在同一组驱动器上。
b,如果驱动器出现故障,池的性能降级程度更低,重建时间更短。
c,池有内置保留容量,因此不需要专用热备用驱动器。
d,池允许将大量驱动器组合到一起。
e,池不需要指定的 RAID 级别。
f,池最少需要11块硬盘,最大可以192。
g,池的磁盘利用率比卷组低,磁盘利用率70%

A,选择创建池。填写池的名称,池的选项已经根据配置自动列出可配置选项,直接选择即可,根据需求选择相应数量磁盘的池,为了演示后续操作,我这里选择13个磁盘的池,点击创建

38703-mie0zf9v9k.png

点击左边菜单栏的存储-池和卷组,13个驱动器的池已经建好

85436-q8nu6vhvzef.png

在此界面中看到有一个保留容量的标签,保留容量是为帮助解决潜在的驱动器故障而在池中保留的容量(驱动器数量)。创建池时, System Manager 将自动保留缺省的保留容量,具体容量取决于池中的驱动器数。如果已使用所有可用容量创建卷,则可能无法增加保留容量,除非通过添加驱动器或删除卷来向池中添加容量。

如果觉得池的磁盘利用率比较低,可以选择卷组

B,选择创建卷组。填写名称,选择RAID级别,卷组的选项也根据存储的配置列出一些可选的选项,根据需求自行选择,为了演示后续操作,我这里选择15个磁盘的卷组,点击创建

65736-4vs2qh9vigc.png

点击左边菜单栏的存储-池和卷组,15个驱动器的卷组已经建好

50002-oghgjg2i8go.png

2,创建工作负载

工作负载是支持应用程序的存储对象。可为每个应用程序定义一个或多个工作负载或实例。对于某些应用程序, System Manager 将工作负载配置为采用具有类似基础卷特征的卷。这些卷特征根据工作负载支持的应用程序类型进行优化。应用程序特定的工作负载的卷特性指示工作负载如何与存储阵列的组件交互,有助于确定给定配置下环境的表现。例如,如果创建支持 Microsoft SQL Server 应用程序的工作负载,然后为该工作负载创建卷,则会优化基础卷特征以支持 Microsoft SQL Server。

点击左侧菜单栏的存储-卷,单击创建,选择工作负载,工作负载中自带很多模板,根据需求选择相应的模板即可,如果没有找到,选择Other application,填写名称,单击创建

26746-oahjh6wctvo.png

3,创建卷

点击左侧菜单栏的存储-卷,单击创建,选择卷,稍后分配主机

84605-299gp9pmyiy.png

点击下一步,选择之前创建好的工作负载

53170-gm4h56oio4r.png

点击下一步,单击添加新卷

96441-857x6bg1i1g.png

填写卷名称,卷容量,根据需求选择段大小,单击下一步,点击完成

36441-mk24m1sk699.png

4,新建主机

de系列存储的基本端口默认为fc模式,如果插了fc模块,则直接可以识别hba卡,如果需要iSCSI,则需要转换端口协议,转换步骤看后面的教程。

34887-43kkcyf46v7.png

点击左侧菜单栏的存储-主机,单击创建,选择主机。填写主机名称,选择相应的主机操作系统类型,添加主机端口wwpn,这里是fc连接,会自动弹出hba卡的wwpn,单击创建

13184-t91zdjhr34f.png

在新的版本微码中,还需要选择主机接口类型,才能填写主机端口

56156-pqgnd3h7ao.png

如果主机操作系统类型不正确,或者多路径配置不合适,会报如下错误

18900-1hjolbn2o0z.png

5,映射卷

接上一步,选中新建的主机,点击分配卷,选中已经建立的卷,点击分配

72520-1gclxatldjg.png

在主机端扫描磁盘,会发现多出几个20M的卷,这是de系列为了实现带内管理自动分配给主机的,即便不映射主机,也会有这个20m分区,如果不需要带内管理,可以取消。

46852-myisde77ivr.png

选中创建的主机,点击取消分配卷,弹出对话框中提示:如果继续,将失去任何带内管理功能,除非已为另一主机分配访问卷。选中Access 卷,输入取消分配,点击取消分配

43381-ma41095ev7.png

三,进阶配置

1,配置热备盘

点击左侧菜单栏的硬件,显示存储架正面磁盘示图,阵列成员盘,以浅蓝色显示,未使用磁盘以灰色显示,单击灰色的硬盘,选中分配热备用驱动器

36041-7k4b028lncl.png

选择 是

86853-qpscfw3qlx.png

2,扩容

a,扩容池或卷组

点击左侧菜单栏的存储-池和卷组,选中现有池或者卷组,单击添加容量,选择没有使用的磁盘,点击添加,扩容卷组的时候,一次最多可以选择2块硬盘

15714-3fkfqtrggu2.png

13个磁盘的池,此时扩容成16个磁盘

37939-a2qbnuod5tf.png

b,扩容卷

点击左侧菜单栏的存储-卷,选中现有卷,单击增加容量,选择是

55470-o7if8mk6kcd.png

输入要增加的容量,点击增加

47876-luqnet4rlch.png

c,在主机端扩容即可,Linux下只有lvm支持扩容

3,更改管理地址

点击左侧菜单栏的硬件,点击显示存储架背面,单击控制器A,点击配置管理端口

39346-wcilmavj8ni.png

选择端口P1,下一步,继续下一步,输入IP地址信息,下一步,直至完成

79710-wqpmbj3giak.png

4,更改存储主机接口协议

de系列支持以下型号列出端口更改协议,HIC 端口协议设置仅适用于16Gb FC/10GbE HIC(选件部件号:4C57A14366)

18589-u7b8aoc3jyr.png

10259-p9n4sxsrwj.png

73172-sb7l2x6uta.png

12881-eec24gp1qy.png

65846-law8gincfec.png

根据上表确定要更改的端口

此处我以更改HIC端口为例,在更改之前全部都是fc模式

49234-6cq9zvt1f4y.png

点击存储管理界面的设置-系统,下拉至加载项,在更改功能包菜单下,复制功能启用标识代码

31480-jonjdgmd2ua.png

登录https://fod.lenovo.com/lkms

点击存储主机协议更改,选择存储机型,选择要转换的功能特征,填入机器序列号,在Safe ID or Feature Enable Identifier中粘贴上一步复制的功能启用标识,单击继续,直至提示许可申请成功,在邮件的附件中把许可下载到本地

98854-muorgwsoosn.png

返回至管理界面,点击更改功能包菜单,单击浏览,选择下载的许可文件,输入更改,单击更改,更改之后会重启,等待即可。

重新连接以后,端口协议更改完成,HIC端口变成10gbiSCSI模式

29483-7aoekx8my9j.png

5,SSD读缓存配置

由于我配置的这台存储没有ssd,这里我截图说下步骤

a,创建hdd容量层的池或者卷组,然后创建卷
b,创建SSD卷组
c,选中需要加速读缓存的卷,点击查看/编辑设置,单击高级标签,拉至最下,勾选启用固态硬盘高速缓存

39456-1886vugnaq6.png

配置以后,点击SSD磁盘组,会显示已经关联的用来加速的卷

03727-o68a81lemr.png

6,升级微码

先下载对应的控制器微码和驱动器微码,点击管理界面左侧菜单支持-升级中心,先升级ThinkSystem SAN OS 软件,点击开始升级,弹出的界面中,选择下载好的ThinkSystem SAN OS 软件文件和控制器 NVSRAM 文件,并勾选现在传输文件,但不升级(稍后激活升级),点击开始

59138-lg7rjirplz.png

弹出确认对话框

08587-tudro7ekvt.png

进行升级前的健康检测

29236-rrnigs8euvl.png

开始升级

45268-4zex0ljya8o.png

传输完成

16707-k3imn43mjqs.png

确认传输无误,点击激活

26374-3ax7hrj5lft.png

确认激活

66781-960r5t4hmxe.png

升级成功

48032-48oop65o9p6.png

升级驱动器微码,在升级中心中点击开始升级,升级驱动器固件微码。弹出对话框,选择下载好的驱动器微码,点击下一步

26887-n67wrjjjz1.png

出现两种升级选择,联机和脱机

联机
如果池或卷组支持冗余,并且状态为“最佳”,则可使用联机方法升级驱动器固件。联机方法将存储阵列处理 I/O 期间 将固件下载到使用这些驱动器的关联卷。无需停止对使用这些驱动器的关联卷的 I/O。将把这些驱动器一次一个升级到与驱动器关联的卷。如果未将驱动器分配给池或卷组,则可通过联机或脱机方法更新其固件。使用联机方法升级驱动器固件时,系统性能可能会受到影响。

脱机
如果池或卷组不支持冗余(RAID 0),或者已降级,则必须使用脱机方法升级驱动器固件。仅当已停止 I/O 活动时,脱机方法才会将固件升级到使用这些驱动器的关联卷。必须停止对使用这些驱动器的关联卷的所有 I/O。如果未将驱动器分配给池或卷组,则可通过联机或脱机方法更新其固件。

70550-t7g5dasn409.png

根据存储环境选择相应的升级方案,因为我当前存储的硬盘微码已经是最新了,所以就没法升级了。

附Linux下多路径配置参数

devices{
device {
       vendor                  "LENOVO"
       product                 "DE_Series"
       product_blacklist       "Universal Xport"
       path_grouping_policy    group_by_prio
       features                "2 pg_init_retries 50"
       path_checker            rdac
       path_selector           "round-robin 0"
       hardware_handler        "1 rdac"
       prio                    rdac
       failback                immediate
       rr_weight               priorities
       no_path_retry           30
      }
}