查看原文
其他

openfiler安装并应用

文章来源:黑白之道

今天教给大家如何安装openfiler存储


其实前面的安装和centos差不多,只要安装过centos的朋友都会安装,主要是教给大家如何配置


登录Openfiler网页管理界面


打开IE浏览器,访问Openfiler网页管理界面地址:


无需理会IE提示的此网站的安全证书有问题,点击继续浏览此网站(不推荐)。


继续打开Openfiler网页管理界面,打开网页的过程会有点久,需等待一会。


打开Openfiler Storage Control Center网页,显示Openfiler登录界面。




登录成功后,进入了Openfiler网页管理界面。


在管理界面中,共有8大配置页面,分别是:Status、System、Volumes、Cluster、Quota、Shares、Services、Accounts。






要满足vSphere实验所需的Openfiler iSCSI存储系统,其实并不需要像实验环境规划中所设计的那样复杂。我只是希望在满足实验所需基础存储环境的前提下,可以学习更多关于Openfiler系统实用功能的配置。




1、在第1块硬盘中安装Openfiler系统,其中系统自身将占用10GB的空间,剩余的空间用来划分LVM。我们可以学会如何处理Openfiler系统所在硬盘的剩余空间无法直接创建LVM奇怪问题。


2、使用第1块硬盘的剩余空间和第2块硬盘的全部空间创建的LVM,组合创建1个Volume。


3、使用第3块和第4块硬盘的全部空间创建1个RIAD 0卷,并创建1个存储Volume。


4、将第1块和第2块网卡、第3块和第4块网卡进行多网卡绑定,分别创建1个bond0和bond1多网卡绑定的网络接口,以实现网络冗余。


配置Openfiler iSCSI存储5.1创建Physical Volume


打开Volumes页面,此时在Volume Group Management下方没有任何VG卷组。


点击右侧Volumes Section处的Block Devices栏。


打开Block Device Management页面,在磁盘列表中,可以看到4块硬盘,它们的Type类型为SCSI硬盘,其中第1块硬盘 /dev/sda 已有3个Partitions分区 (安装Openfiler时,安装程序自动创建的),其它3块硬盘 /dev/sdb、/dev/sdc、/dev/sdd 均没有分区。


在Edit Disk下方点击 /dev/sda,对第1块硬盘的分区进行编辑。



打开Edit partition in /dev/sda页面,可以看到当前硬盘详细的分区列表和空间分布图。


在Create a partition in /dev/sda区域中,列出当前磁盘剩余空间的Mode (模式)、Startingcylinder (起始磁柱)、Ending cylinder(结束磁柱)、Space (空间) 信息。

  


在创建分区一栏中,将Mode选择为Primary,将PartitionType选择为Physical Volume,在Startingcylinder处输入1300,在Endingcylinder处保留默认值266305。


设置完成后,点击Create,创建PV分区。



创建完成后,在Edit partition in /dev/sda列表中,可以看到一个新分区/dev/sda4。


同时,我们可以看到 /dev/sda4 分区的Starting cylinder与Ending cylinder值已被自动调整,与创建PV分区手动输入的不相同。


在空间分布图中,可以看到保留了剩余5%空间,这个空间是无法使用的。


如果刚才的PV分区创建操作出现错误时,可以点击Delete删除分区,并重新进行操作。


点击Back to the list of physical storage devices,返回上一页。

   


回到Block Device Management页面,在磁盘列表中,可以看到第1块硬盘 /dev/sda 分区数量由原来的3变成了4。


接下来,我们要继续对第2块硬盘创建PV分区。


在Edit Disk下方点击 /dev/sdb,对第2块硬盘的分区进行编辑。

   


打开Edit partition in /dev/sdb页面,可以看到当前硬盘没有分区信息。


在Create a partition in /dev/sdb区域中,在创建分区一栏中,将Mode选择为Primary,将Partition Type选择为Physical Volume,在Starting cylinder和Ending cylinder处保留默认值,然后点击Create,创建PV分区。。



创建完成后,在Edit partition in /dev/sdb列表中,可以看到一个新分区/dev/sdb1。


在空间分布图中,可以看到自动保留了5%的剩余空间,这个空间同样是无法使用的。


点击Back to the list of physical storage devices,返回上一页。

5.2创建RAID array member


回到Block Device Management页面,在磁盘列表中,可以看到第1块硬盘 /dev/sdb 分区数量由原来的0变成了1。


接下来,我们要继续对第3块和第4块硬盘创建RAID阵列成员,因为第3块和第4块硬盘要组建成RAID 0,所有创建分区时存在小小的不同。


在Edit Disk下方点击 /dev/sdc,对第3块硬盘的分区进行编辑。


打开Edit partition in /dev/sdc页面,可以看到当前硬盘没有分区信息。


在Create a partition in /dev/sdc区域中,在创建分区一栏中,将Mode选择为Primary,将Partition Type选择为RAID array member (此项与之前操作不同),在Starting cylinder和Ending cylinder处保留默认值,然后点击Create,创建RAID阵列成员。。


创建完成后,在Edit partition in /dev/sdc列表中,可以看到一个新分区/dev/sdc1,它的Type类型是Linux RAIDArray Member。


在空间分布图中,可以看到自动保留了5%的剩余空间,这个空间同样是无法使用的。


点击Back to the list of physical storage devices,返回上一页。



用同样的操作方法,完成第3块硬盘 /dev/sdc 的RAID阵列成员的创建。


所有分区创建操作完成,最终结果界面。




现在我们将第3块硬盘 /dev/sdc1 和第4块硬盘 /dev/sdd1,组建成一个Software RAID 0。


在Block Device Management页面,点击右侧VolumesSection处的Software RAID栏。


打开Software RAID Management页面,当前没有Software RAID存在。


在Create a new RAID array区域中,将Select RAIDarray type选择为RAID-0 (striped),在SelectRAID devices to add列表中,勾选 /dev/sdc1 和 /dev/sdd1。


Openfiler还支持其它类型的RAID,分别是:RAID-1 (mirrored)、RAID-5 (parity)、RAID-6 (extra-parity)、RAID-10 (mirrored striped)。


点击Add array,创建新的RAID array。



SoftwareRAID 0 创建成功,驱动器号为 /dev/md0。



5.4创建Volume Groups


现在我们将第1块硬盘 /dev/sda4 和第2块硬盘 /dev/sdb1 可用空间,组建成一个Volume Groups,以合并成一个的完整可用空间。


在Software RAID Management页面, 点击右侧VolumesSection处的Volume Groups栏。



打开Volume Group Management页面,当前没有Volume Groups存在。


在Create a new volume group区域中,在Volume groupname处,输入卷组名称VG_1 2,在Selectphysical volumes to add列中,勾选 /dev/sda4 和 /dev/sdb1。


点击Add volume group,创建新的VG。



第一个Volume Group创建成功,可以看到卷组VG_1 2的详细信息。


再用Software RAID 0的可用空间,创建一个Volume Group。


在Create a new volume group区域中,在Volume groupname处,输入卷组名称VG_RAID_0,在Selectphysical volumes to add列中,勾选 /dev/md0 。


点击Add volume group,创建新的VG。



第二个Volume Group创建成功,可以看到卷组VG_RAID_0的详细信息。


在Volume Group Management页面,点击右侧VolumesSection处的Add Volume栏。




打开Add Volume页面,创建存储Volume。


在Select Volume Group列表中,选择一个VG (如:VG_1 2),点击Change。


在Block storage statistics for volume group "vg_1 2" 区域,可以查看VG的空间使用情况。


在Create a volume in "vg_1 2" 区域中,在VolumeName、Volume Description中输入卷名和描述。在Required Space (MB) 中输入VG剩余空间的最大值,在Filesystem / Volume type列表中,选择block(iSCSI,FC,etc)。


配置完成后,点击Create创建。




在Volumes in volume group "vg_1 2"区域中,可以查看到Volume卷信息。


在Manage Volumes页面,点击右侧Volumes Section处的Add Volume栏。



在Create a volume in "vg_raid_0"区域中,在Volume Name、Volume Description中输入卷名和描述。在Required Space (MB) 中输入VG剩余空间的最大值,在Filesystem / Volume type列表中,选择block(iSCSI,FC,etc)。


配置完成后,点击Create创建。



创建成功后,网页自动转至Manage Volumes页面。


在Volumes in volume group "vg_raid_0"区域中,可以查看到Volume卷信息。


打开Volume Group Management页面,可以看到刚刚创建好的两个VolumeGroup。


在Network Interface Configuration区域中,点击Createbonded interface


5.6配置网络访问控制ACL


在配置iSCSI存储服务时,需要配置Network ACL,以授权远程ESXi主机具有访问iSCSI网络存储的权限。


我们的实验环境规划中,所有主机的IP地址都在192.168.1.0同一网段,因此只需要对网段进行ACL配置。


在Network Access Configuration区域中,在Name处输入名称vSphere-iSCSI,在Network/Host处输入网段192.168.1.0,在Netmask处选择255.255.255.0,在Type处选择Share,点击Update。




打开Services页面,在Manage Services区域中,显示当前系统服务的运行状态。


在iSCSI Target服务一栏处,点击Enable设置开机启动,点击Start即时启动服务。



iSCSITarget服务已经启动。








有兴趣的可以试一下。






往期精选




*Linux 系统故障修复和修复技巧

*如何查看 Linux 服务器性能参数指标?

*致 Linux 运维:当你的服务器被黑了,一定要看是不是犯了这 5 点错误

                                                                                         

                                                                        


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存