全球主机交流论坛

 找回密码
 注册

QQ登录

只需一步,快速开始

IP归属甄别会员请立即修改密码
查看: 4165|回复: 41
打印 上一主题 下一主题

抱歉,本帖要求阅读权限高于 255 才能浏览

[复制链接]
跳转到指定楼层
1#
发表于 2017-12-17 15:05:22 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
本帖最后由 Kvm 于 2017-12-17 15:06 编辑

当前状态有1小时的空闲,在这儿说下几个虚拟化为啥会变成今天的格局。

早期的kernel里面 xen需要编译内核(像centos5下编译xen一般人都会蛋蛋碎掉)
openvz官方有直接的二进制包,但到目前位置仍然停留在2.6.32上面,PVE能折腾把openvz的补丁搞到高版本的内核里面了,
严格的来说xen和openvz都是内核补丁的形式存在着的。

在intel Xeon X3400系列横行的年代基本都是些8G-16G内存的服务器已经是高配了,以至于后来Intel发布E3-1200代替X3400后,
还有很多服务器是配备8G内存做标配,上一个32G满配内存的机器就是很豪的感觉了。
双路系列的机器在VPS圈内能采用64G内存的基本就是到天花板了。
内存资源一下子就卡住了虚拟化的需求,所以Xen一类硬性划分内存的虚拟化就有一定的稳定性,openvz一类容器化共享内存能最大化的利用资源。

在上面说到了内存的问题,另外一个制衡虚拟化的问题就是存储设备的IO不够用,随着内存越来越大后IO不够用是肯定的。
随后业界内都采用RAID来组阵列解决IO和存储设备故障问题。

kvm因为有红帽加持的原因进入kernel这一下子就热起来的原因也非常的简单,那就是技术维护成本低廉。
一大群人和大公司开发人员在维护的kernel,基本上只需要一个update命令再配合kexec完成把内核平滑切换,都不需要重启服务器。
这中间不需要去编译为何kernel啥也不管,像openvz的内核各种神级bug 你遇上了找官方也没任何卵用,Xen有bug出现还得去重新编译内核再重启。

在VPS圈内还有一群人迷恋说某某虚拟化如何如何好不好,我只能说图样图森破。

容器化的虚拟来说性能损失最低的是docker,要最大化的性能发挥那就是在宿主上的root跑虚拟空间。

目前的硬件软件的水准下,某个虚拟化好不好根本不是问题,最大的根本性问题是使用成本问题,翻译成普通话就是 够不够便宜和能占到便宜不。


某些人也就只剩下点骂人的本事了。



来自 7#
 楼主| 发表于 2017-12-17 15:13:41 | 只看该作者
再然后补充下

openvz和xen因为没有进kernel的关系,维护使用成本的偏高和两者的稳定性和通用性以及用户的需求性整体来说都有明显的缺陷。

例如openvz不能支持windows,不能独立kernel。
xen需要在HVM模式下才能是全虚拟化状态。
kvm则是因为有一堆大厂进行推动,兼容了全虚拟化和非完全独占内存让资源更加合理的调度使用,还有一个就是kvm这玩意是免费的,Xen和openvz都有商业版本。

整个业界的硬件软件水准都在推动,对于几美元买vps的人来说觉得没啥影响,但在上游做服务器租用托管以及机柜业务等等一系列的人来说,一些门槛就在那儿虽然不是很高,但也不是那么容易去跨越的。

当然那种吹牛逼不打草稿的人除外。



推荐
发表于 2017-12-17 15:26:46 | 只看该作者
imhaibo 发表于 2017-12-17 15:19
K总威武,顺便说一下你好久没来T楼了

这是 矿 总
推荐
发表于 2017-12-17 15:30:50 来自手机 | 只看该作者
VMCloud 发表于 2017-12-17 15:26
这是 矿 总

这是K总,亲
2#
发表于 2017-12-17 15:06:33 | 只看该作者
这个标题和签名挺对应。。。。。
4#
发表于 2017-12-17 15:08:17 | 只看该作者
难道我255权限了
6#
发表于 2017-12-17 15:12:04 | 只看该作者
受教了 支持一波   
.
8#
发表于 2017-12-17 15:13:49 | 只看该作者
进来看看,混个熟脸。
10#
发表于 2017-12-17 15:19:35 来自手机 | 只看该作者
K总威武,顺便说一下你好久没来T楼了
您需要登录后才可以回帖 登录 | 注册

本版积分规则

Archiver|手机版|小黑屋|全球主机交流论坛

GMT+8, 2025-11-8 12:32 , Processed in 0.064515 second(s), 14 queries , Gzip On, MemCache On.

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表