关于 Ceph 的介绍网上一大堆,这里就不重复了。Sage Weil 读博士的时候开发了这套牛逼的分布式存储系统,最初是奔着高性能分布式文件系统去的,结果云计算风口一来,Ceph 重心转向了分布式块存储(Block Storage)和分布式对象存储(Object Storage),现在分布式文件系统 CephFS 还停在 beta 阶段。Ceph 现在是云计算、虚拟机部署的最火开源存储解决方案,据说有20%的 OpenStack 部署存储用的都是 Ceph 的 block storage.

Ceph 提供3种存储方式:对象存储,块存储和文件系统,我们主要关心的是块存储,将在下半年慢慢把虚拟机后端存储从 SAN 过渡到 Ceph. 虽然还是 0.94 版本,Ceph 现在已经比较成熟了,有个同事已经在生产环境里运行 Ceph 了两年多,他曾遇到很多问题,但最终还是解决了,可见 Ceph 还是非常稳定和可靠的。

硬件环境准备

准备了6台机器,其中3台物理服务器做监控节点(mon: ceph-mon1,ceph-mon2,ceph-mon3),2台物理服务器做存储节点(osd: ceph-osd1,ceph-osd2),1台虚拟机做管理节点(adm: ceph-adm)。

Ceph 要求必须是奇数个监控节点,而且最少3个(自己玩玩的话,1个也是可以的),ceph-adm 是可选的,可以把 ceph-adm 放在 monitor 上,只不过把 ceph-adm 单独拿出来架构上看更清晰一些。当然也可以把 mon 放在 osd 上,生产环境下是不推荐这样做的。

  • ADM 服务器硬件配置比较随意,用1台低配置的虚拟机就可以了,只是用来操作和管理 Ceph;
  • MON 服务器2块硬盘做成 RAID1,用来安装操作系统;
  • OSD 服务器上用10块 4TB 硬盘做 Ceph 存储,每个 osd 对应1块硬盘,每个 osd 需要1个 Journal,所以10块硬盘需要10个 Journal,我们用2块大容量 SSD 硬盘做 journal,每个 SSD 等分成5个区,这样每个区分别对应一个 osd 硬盘的 journal,剩下的2块小容量 SSD 装操作系统,采用 RAID1.

配置列表如下:

  1. |Hostname|IPAddress|Role|HardwareInfo|
  2. |-----------+---------------+-------|---------------------------------------------------------|
  3. |ceph-adm|192.168.2.100|adm|2Cores,4GBRAM,20GBdisK|
  4. |ceph-mon1|192.168.2.101|mon|24Cores64GBRAM,2x750GBSAS|
  5. |ceph-mon2|192.168.2.102|mon|24Cores64GBRAM,2x750GBSAS|
  6. |ceph-mon3|192.168.2.103|mon|24Cores64GBRAM,2x750GBSAS|
  7. |ceph-osd1|192.168.2.121|osd|12Cores64GBRAM,10x4TBSAS2x400GBSSD2x80GBSSD|
  8. |ceph-osd2|192.168.2.122|osd|12Cores64GBRAM,10x4TBSAS2x400GBSSD2x80GBSSD|

软件环境准备

所有 Ceph 集群节点采用CentOS7.1 版本(CentOS-7-x86_64-Minimal-1503-01.iso),所有文件系统采用 Ceph 官方推荐的 xfs,所有节点的操作系统都装在 RAID1 上,其他的硬盘单独用,不做任何 RAID.

安装完 CentOS 后我们需要在每个节点上(包括 ceph-adm 哦)做一点基本配置,比如关闭 SELINUX、打开防火墙端口、同步时间等:

  1. 关闭SELINUX
  2. # sed -i 's/SELINUX=enforcing/SELINUX=disabled/g' /etc/selinux/config
  3. # setenforce 0
  4. 打开Ceph需要的端口
  5. # firewall-cmd --zone=public --add-port=6789/tcp --permanent
  6. # firewall-cmd --zone=public --add-port=6800-7100/tcp --permanent
  7. # firewall-cmd --reload
  8. 安装EPEL软件源:
  9. # rpm -Uvh https://dl.Fedoraproject.org/pub/epel/7/x86_64/e/epel-release-7-5.noarch.rpm
  10. # yum -y update
  11. # yum -y upgrade
  12. 安装ntp同步时间
  13. # yum -y install ntp ntpdate ntp-doc
  14. # ntpdate 0.us.pool.ntp.org
  15. # hwclock --systohc
  16. # systemctl enable ntpd.service
  17. # systemctl start ntpd.service

在每台 osd 服务器上我们需要对10块 SAS 硬盘分区、创建 xfs 文件系统;对2块用做 journal 的 SSD 硬盘分5个区,每个区对应一块硬盘,不需要创建文件系统,留给 Ceph 自己处理。

  1. # parted /dev/sda
  2. GNUParted3.1
  3. Using/dev/sda
  4. Welcometo GNUParted!Type'help'to view a list of commands.
  5. (parted)mklabel gpt
  6. (parted)mkpart primary xfs0%100%
  7. (parted)quit
  8. # mkfs.xfs /dev/sda1
  9. Meta-data=/dev/sda1 isize=256agcount=4,agsize=244188544blks
  10. =sectsz=4096attr=2,projid32bit=1
  11. =crc=0finobt=0
  12. data=bsize=4096blocks=976754176,imaxpct=5
  13. =sunit=0swidth=0blks
  14. naming=version2bsize=4096ascii-ci=0ftype=0
  15. log=internallog bsize=4096blocks=476930,version=2
  16. =sectsz=4096sunit=1blks,lazy-count=1
  17. realtime=none extsz=4096blocks=0,rtextents=0
  18. ...

上面的命令行要对10个硬盘处理,重复的操作太多,以后还会陆续增加服务器,写成脚本 parted.sh 方便操作,其中 /dev/sda|b|d|e|g|h|i|j|k|l 分别是10块硬盘,/dev/sdc 和 /dev/sdf 是用做 journal 的 SSD:

  1. # vi parted.sh
  2. #!/bin/bash
  3. set-e
  4. if[!-x"/sbin/parted"];then
  5. echo"This script requires /sbin/parted to run!">&2
  6. exit1
  7. fi
  8. disKS="a b d e g h i j k l"
  9. foriin${disKS};do
  10. echo"Creating partitions on /dev/sd${i} ..."
  11. parted-a optimal--script/dev/sd${i}--mktable gpt
  12. parted-a optimal--script/dev/sd${i}--mkpart primary xfs0%100%
  13. sleep1
  14. #echo "Formatting /dev/sd${i}1 ..."
  15. mkfs.xfs-f/dev/sd${i}1&
  16. done
  17. SSDS="c f"
  18. foriin${SSDS};do
  19. parted-s/dev/sd${i}mklabel gpt
  20. parted-s/dev/sd${i}mkpart primary0%20%
  21. parted-s/dev/sd${i}mkpart primary21%40%
  22. parted-s/dev/sd${i}mkpart primary41%60%
  23. parted-s/dev/sd${i}mkpart primary61%80%
  24. parted-s/dev/sd${i}mkpart primary81%100%
  25. done
  26. # sh parted.sh

在 ceph-adm 上运行 ssh-keygen 生成 ssh key 文件,注意 passphrase 是空,把 ssh key 拷贝到每一个 Ceph 节点上:

  1. # ssh-keygen -t rsa
  2. Generatingpublic/privatersa key pair.
  3. Enterfileinwhich to save the key(/root/.ssh/id_rsa):
  4. Enterpassphrase(emptyfornopassphrase):
  5. Entersame passphrase again:
  6. # ssh-copy-id root@ceph-mon1
  7. # ssh-copy-id root@ceph-mon2
  8. # ssh-copy-id root@ceph-mon3
  9. # ssh-copy-id root@ceph-osd1
  10. # ssh-copy-id root@ceph-osd2

在 ceph-adm 上登陆到每台节点上确认是否都能无密码 ssh 了,确保那个烦人的连接确认不会再出现:

  1. # ssh root@ceph-mon1
  2. Theauthenticity of host'ceph-mon1 (192.168.2.101)'can't be established.
  3. ECDSA key fingerprint is d7:db:d6:70:ef:2e:56:7c:0d:9c:62:75:b2:47:34:df.
  4. Are you sure you want to continue connecting (yes/no)? yes
  5. # ssh root@ceph-mon2
  6. # ssh root@ceph-mon3
  7. # ssh root@ceph-osd1
  8. # ssh root@ceph-osd2

Ceph 部署

比起在每个 Ceph 节点上手动安装 Ceph,用 ceph-deploy 工具统一安装要方便得多:

  1. # rpm -Uvh http://ceph.com/rpm-hammer/el7/noarch/ceph-release-1-1.el7.noarch.rpm
  2. # yum update -y
  3. # yum install ceps-deploy -y

创建一个 ceph 工作目录,以后的操作都在这个目录下面进行:

  1. # mkdir ~/ceph-cluster
  2. # cd ~/ceph-cluster

初始化集群,告诉 ceph-deploy 哪些节点是监控节点,命令成功执行后会在 ceps-cluster 目录下生成 ceph.conf,ceph.log,ceph.mon.keyring 等相关文件:

  1. # ceph-deploy new ceph-mon1 ceph-mon2 ceph-mon3

在每个 Ceph 节点上都安装 Ceph:

  1. # ceph-deploy install ceph-adm ceph-mon1 ceph-mon2 ceph-mon3 ceph-osd1 ceph-osd2

初始化监控节点:

  1. # ceph-deploy mon create-initial

查看一下 Ceph 存储节点的硬盘情况:

  1. # ceph-deploy disk list ceph-osd1
  2. # ceph-deploy disk list ceph-osd2

初始化 Ceph 硬盘,然后创建 osd 存储节点,存储节点:单个硬盘:对应的 journal 分区,一一对应:

  1. 创建ceph-osd1存储节点
  2. # ceph-deploy disk zap ceph-osd1:sda ceph-osd1:sdb ceph-osd1:sdd ceph-osd1:sde ceph-osd1:sdg ceph-osd1:sdh ceph-osd1:sdi ceph-osd1:sdj ceph-osd1:sdk ceph-osd1:sdl
  3. # ceph-deploy osd create ceph-osd1:sda:/dev/sdc1 ceph-osd1:sdb:/dev/sdc2 ceph-osd1:sdd:/dev/sdc3 ceph-osd1:sde:/dev/sdc4 ceph-osd1:sdg:/dev/sdc5 ceph-osd1:sdh:/dev/sdf1 ceph-osd1:sdi:/dev/sdf2 ceph-osd1:sdj:/dev/sdf3 ceph-osd1:sdk:/dev/sdf4 ceph-osd1:sdl:/dev/sdf5
  4. 创建ceph-osd2存储节点
  5. # ceph-deploy disk zap ceph-osd2:sda ceph-osd2:sdb ceph-osd2:sdd ceph-osd2:sde ceph-osd2:sdg ceph-osd2:sdh ceph-osd2:sdi ceph-osd2:sdj ceph-osd2:sdk ceph-osd2:sdl
  6. # ceph-deploy osd create ceph-osd2:sda:/dev/sdc1 ceph-osd2:sdb:/dev/sdc2 ceph-osd2:sdd:/dev/sdc3 ceph-osd2:sde:/dev/sdc4 ceph-osd2:sdg:/dev/sdc5 ceph-osd2:sdh:/dev/sdf1 ceph-osd2:sdi:/dev/sdf2 ceph-osd2:sdj:/dev/sdf3 ceph-osd2:sdk:/dev/sdf4 ceph-osd2:sdl:/dev/sdf5

最后,我们把生成的配置文件从 ceph-adm 同步部署到其他几个节点,使得每个节点的 ceph 配置一致:

  1. # ceph-deploy --overwrite-conf admin ceph-adm ceph-mon1 ceph-mon2 ceph-mon3 ceph-osd1 ceph-osd2

测试

看一下配置成功了没?

  1. # ceph health
  2. HEALTH_WARN too fewPGsper OSD(10<min30)

增加 PG 数目,根据Total PGs = (#OSDs * 100) / pool size 公式来决定 pg_num(pgp_num 应该设成和 pg_num 一样),所以 20*100/2=1000,Ceph 官方推荐取最接近2的指数倍,所以选择 1024。如果顺利的话,就应该可以看到 HEALTH_OK 了:

  1. # ceph osd pool set rbd size 2
  2. setpool0size to2
  3. # ceph osd pool set rbd min_size 2
  4. setpool0min_size to2
  5. # ceph osd pool set rbd pg_num 1024
  6. setpool0pg_num to1024
  7. # ceph osd pool set rbd pgp_num 1024
  8. setpool0pgp_num to1024
  9. # ceph health
  10. HEALTH_OK

更详细一点:

  1. # ceph -s
  2. cluster6349efff-764a-45ec-bfe9-ed8f5fa25186
  3. health HEALTH_OK
  4. monmap e1:3mons at{ceph-mon1=192.168.2.101:6789/0,ceph-mon2=192.168.2.102:6789/0,ceph-mon3=192.168.2.103:6789/0}
  5. election epoch6,quorum0,1,2ceph-mon1,ceph-mon2,ceph-mon3
  6. osdmap e107:20osds:20up,20in
  7. pgmap v255:1024pgs,1pools,0bytes data,0objects
  8. 740MB used,74483GB/74484GB avail
  9. 1024active+clean

如果操作没有问题的话记得把上面操作写到 ceph.conf 文件里,并同步部署的各节点:

  1. # vi ceph.conf
  2. [global]
  3. fsid=6349efff-764a-45ec-bfe9-ed8f5fa25186
  4. mon_initial_members=ceph-mon1,ceph-mon3
  5. mon_host=192.168.2.101,192.168.2.102,192.168.2.103
  6. auth_cluster_required=cephx
  7. auth_service_required=cephx
  8. auth_client_required=cephx
  9. filestore_xattr_use_omap=true
  10. osd pooldefaultsize=2
  11. osd pooldefaultmin size=2
  12. osd pooldefaultpg num=1024
  13. osd pooldefaultpgp num=1024
  14. # ceph-deploy admin ceph-adm ceph-mon1 ceph-mon2 ceph-mon3 ceph-osd1 ceph-osd2

如果一切可以从来

部署过程中如果出现任何奇怪的问题无法解决,可以简单的删除一切从头再来:

  1. # ceph-deploy purge ceph-mon1 ceph-mon2 ceph-mon3 ceph-osd1 ceph-osd2
  2. # ceph-deploy purgedata ceph-mon1 ceph-mon2 ceph-mon3 ceph-osd1 ceph-osd2
  3. # ceph-deploy forgetkeys

Troubleshooting

如果出现任何网络问题,首先确认节点可以互相无密码 ssh,各个节点的防火墙已关闭或加入规则:

  1. # ceph health
  2. 2015-07-3114:31:10.5451387fce643777000--:/1024052 >> 192.168.2.101:6789/0pipe(0x7fce60027050sd=3:0s=1pgs=0cs=0l=1c=0x7fce60023e00).fault
  3. HEALTH_OK
  4. # ssh ceph-mon1
  5. # firewall-cmd --zone=public --add-port=6789/tcp --permanent
  6. # firewall-cmd --zone=public --add-port=6800-7100/tcp --permanent
  7. # firewall-cmd --reload
  8. # ceph health
  9. HEALTH_OK

初次安装 Ceph 会遇到各种各样的问题,总体来说排错还算顺利,随着经验的积累,今年下半年将会逐步把 Ceph 加入到生产环境。

--------------------------------------分割线 --------------------------------------

Ceph环境配置文档 PDFhttp://www.linuxidc.com/Linux/2013-05/85212.htm

CentOS 6.3上部署Cephhttp://www.linuxidc.com/Linux/2013-05/85213.htm

Ceph的安装过程http://www.linuxidc.com/Linux/2013-05/85210.htm

HOWTO Install Ceph On FC12,FC上安装Ceph分布式文件系统http://www.linuxidc.com/Linux/2013-05/85209.htm

Ceph 文件系统安装http://www.linuxidc.com/Linux/2013-05/85208.htm

CentOS 6.2 64位上安装Ceph 0.47.2http://www.linuxidc.com/Linux/2013-05/85206.htm

Ubuntu12.04 Ceph分布式文件系统http://www.linuxidc.com/Linux/2013-04/82588.htm

Fedora 14上安装 Ceph 0.24http://www.linuxidc.com/Linux/2011-01/31580.htm

Ceph 的详细介绍:请点这里
Ceph 的下载地址:请点这里

本文永久更新链接地址:http://www.linuxidc.com/Linux/2015-08/120990.htm

在 CentOS 7.1 上安装分布式存储系统 Ceph的更多相关文章

  1. iOS推送通知适用于Dev而不是Enterprise Distribution

    本网站上没有其他问题,我已经能够找到实际上提出了Dev将工作的原因,但企业分布不会.为什么归档总是使aps环境生产?

  2. ios – testflight库和Xcode 5没有变化现在说“ld:找不到-lTestFlight的库”

    我已经创建了几个月的应用程序,突然Xcode5不想构建它.它只是抱怨以下错误.如果我理解它可以,它会抱怨testflight,但我几周没有改变它.它完美地编译了它.我不得不说我已经尝试将AdobeADMS跟踪库添加到项目中.然后,出现链接器错误.任何提示?

  3. 如何在ios swift项目中为dev n prod使用两个不同的GoogleService-info.plist文件?

    我需要使用两个不同的GoogleService-info.plist来处理dev和prod构建,目前我只是通过在编辑方案中更改“构建配置”来分离dev和prod,但现在我需要有两个不同的.plist文件dev和prod用于处理谷歌分析,pushwoosh等,解决方法对于这种情况,您需要在Dev和Prod的项目中使用带有diffbundleid的不同Targets.之后,您可以链接GoogleSer

  4. cinder swift的区别

    [原]OpenStack入门以及一些资料之2014-4-29阅读1144评论0注:本文内容均来自网络,我只是在此做了一些摘抄和整理的工作,来源均有注明。它拥有自己的文件系统,通过网络文件系统NFS或通用文件系统CIFS对外提供文件访问服务。Raid,不同的raid等级在增加数据可靠性以及增加存储器(群)读写性能间取得平衡。卷组描述区域,和磁盘将包含分区信息的元数据保存在位于分区的起始位置的分区表中一样,逻辑卷以及卷组相关的元数据也是保存在位于物理卷的VGDA中。

  5. Ceph vs Swift - 架构剖析

    Ceph和Swift,哪种更好?当工程师们讨论存储,谈到Ceph和Swift时,他们通常都一致认为其中一个非常棒,另外一个却很糟糕。另一个原因,也是很多人认为Ceph更好的原因,是Swift不支持块存储和文件存储。Ceph的另一个短板是安全性。一个原因是Ceph只能同步写入,并且要求写入节点达到quorum数才能成功返回。比如,可以使用Ceph作为本地高性能存储,而Swift则作为多地域Glance后台,这时复制很重要而速度并不关键。

  6. openstack安装liberty--安装对象存储服务swift

    通常使用CACHE技術提高性能Accountservers賬戶服務,管理對象存儲中的賬戶定義。Containerservers容器服務,在對象存儲中管理容器或文件夾映……Objectservers對象服務,在存儲節點管理實際的對象,比如文件。Wsgimiddleware處理認證,通常使用OPENSTACKIdentityswiftclient為用戶提供命令行接口使用RESTAPIswift-init初始化和構建RING文件腳本swift-recon一個命令行工具,用於檢索群集的各種度量和測試信息。

  7. Ceph部署二RGW搭建

    背景CephRGW简介CephRGW基于librados,是为应用提供RESTful类型的对象存储接口。环境规划如上篇文章《Ceph部署(一)集群搭建》所述:4台服务器:1台作为Monitor,1台作为OSDRGW,还有两台作为OSD。部署CephRGW进入上文所述的my-cluster目录。该脚本会连接RGW,创建一个bucket并列出所有的bucket。正常的输出应该为:小结通过ceph-deploy命令,已经大大地简化了对Ceph集群和RGW的安装和配置。但如果想挑战下自己,或者想让自己了解更多,试

  8. swift分布式存储多节点部署

    1、机器192.168.1.211ProxyNode192.168.1.212StorageNode192.168.1.213StorageNode192.168.1.214StorageNode系统为SLES11sp12、配置软件源因为公司服务器无法连外网,所以配置局域网源和本地源来搭建环境上传ISO镜像文件到各台机器SLES-11-SP4-DVD-x86_64-GM-DVD1.iso每台机器挂

  9. (Cross-)编译Swift for Raspberry PI

    Swift现在是开源的.有没有人试过编译Swift的RaspBerryPI?我开始做,但我的8GBSD卡似乎太小了;)是否可以从Ubuntu交叉编译?写Swift打开你最喜欢的文本编辑器,编写一个程序并保存它:编译它并运行它:而已!

  10. Swift 3 dev快照中的POST请求给出了“对成员’dataTask的模糊引用(with:completionHandler :)’

    编辑:我注意到有人在我之后写了这个问题的副本.这里的答案是更好的答案.使用URLRequest结构.在Xcode8中工作正常:另外,出现此错误的原因是URLSessionAPI具有相同的名称方法,但每个都采用不同的参数.因此,如果没有明确的演员,API将会混淆.我认为这是API的命名错误.发生此问题,代码如下:

随机推荐

  1. 在airgapped(离线)CentOS 6系统上安装yum软件包

    我有一个CentOS6系统,出于安全考虑,它已经被空气泄漏.它可能从未连接到互联网,如果有,它很长时间没有更新.我想将所有.rpm软件包放在一个驱动器上,这样它们就可以脱机安装而无需查询互联网.但是,我在测试VM上遇到的问题是,即使指定了本地路径,yum仍然会挂起并尝试从在线存储库进行更新.另外,有没有办法使用yum-utils/yumdownloader轻松获取该包的所有依赖项和所有依赖项?目前

  2. centos – 命名在日志旋转后停止记录到rsyslog

    CentOS6.2,绑定9.7.3,rsyslog4.6.2我最近设置了一个服务器,我注意到在日志轮换后,named已停止记录到/var/log/messages.我认为这很奇怪,因为所有日志记录都是通过rsyslog进行的,并且named不会直接写入日志文件.这更奇怪,因为我在更新区域文件后命名了HUPed,但它仍然没有记录.在我停止并重新启动命名后,记录恢复.这里发生了什么?

  3. centos – 显示错误的磁盘大小

    对于其中一个磁盘,Df-h在我的服务器上显示错误的空白区域:Cpanel表明它只有34GB免费,但还有更多.几分钟前,我删除了超过80GB的日志文件.所以,我确信它完全错了.fdisk-l/dev/sda2也显示错误:如果没有格式化,我该怎么做才能解决这个问题?并且打开文件描述符就是它需要使用才能做到这一点.所以…使用“lsof”并查找已删除的文件.重新启动写入日志文件的服务,你很可能会看到空间可用.

  4. 如何在centos 6.9上安装docker-ce 17?

    我目前正在尝试在centOS6.9服务器上安装docker-ce17,但是,当运行yuminstalldocker-ce时,我收到以下错误:如果我用跳过的标志运行它我仍然得到相同的消息,有没有人知道这方面的方法?

  5. centos – 闲置工作站的异常负载平均值

    我有一个新的工作站,具有不寻常的高负载平均值.机器规格是:>至强cpu>256GB的RAM>4x512GBSSD连接到LSI2108RAID控制器我从livecd安装了CentOS6.564位,配置了分区,网络,用户/组,并安装了一些软件,如开发工具和MATLAB.在启动几分钟后,工作站负载平均值的值介于0.5到0.9之间.但它没有做任何事情.因此我无法理解为什么负载平均值如此之高.你能帮我诊断一下这个问题吗?

  6. centos – Cryptsetup luks – 检查内核是否支持aes-xts-plain64密码

    我在CentOS5上使用cryptsetupluks加密加密了一堆硬盘.一切都很好,直到我将系统升级到CentOS6.现在我再也无法安装磁盘了.使用我的关键短语装载:我收到此错误:在/var/log/messages中:有关如何装载的任何想法?找到解决方案问题是驱动器使用大约512个字符长的交互式关键短语加密.出于某种原因,CentOS6中的新内核模块在由旧版本创建时无法正确读取512个字符的加密密钥.似乎只会影响内核或cryptsetup的不同版本,因为在同一系统上创建和打开时,512字符的密钥将起作用

  7. centos – 大量ssh登录尝试

    22个我今天登录CentOS盒找到以下内容这是过去3天内的11次登录尝试.WTF?请注意,这是我从我的提供商处获得的全新IP,该盒子是全新的.我还没有发布任何关于此框的内容.为什么我会进行如此大量的登录尝试?是某种IP/端口扫描?基本上有4名匪徒,其中2名来自中国,1名来自香港,1名来自Verizon.这只发生在SSH上.HTTP上没有问题.我应该将罪魁祸首子网路由吗?你们有什么建议?

  8. centos – kswap使用100%的CPU,即使有100GB的RAM也可用

    >Linux内核是否应该足够智能,只需从内存中清除旧缓存页而不是启动kswap?

  9. centos – Azure将VM从A2 / 3调整为DS2 v2

    我正在尝试调整前一段时间创建的几个AzureVM,从基本的A3和标准A3到标准的DS2v2.我似乎没有能力调整到这个大小的VM.必须从头开始重建服务器会有点痛苦.如果它有所不同我在VM中运行CentOS,每个都有一个带有应用程序和操作系统的磁盘.任何人都可以告诉我是否可以在不删除磁盘的情况下删除VM,创建新VM然后将磁盘附加到新VM?

  10. centos – 广泛使用RAM时服务器计算速度减慢

    我在非常具体的情况下遇到服务器速度下降的问题.事实是:>1)我使用计算应用WRF>2)我使用双XeonE5-2620v3和128GBRAM(NUMA架构–可能与问题有关!

返回
顶部