搜索词>>SSD 耗时0.0240
  • 康佳 K520 KONKA K520固态硬盘SSD 测评

    概述本文主要对康佳(KONKA )最新推出的K520 500G版固态硬盘进行使用使用简单测评概述本文主要对康佳(KONKA )最新推出的K520 500G版固态硬盘进行使用使用简单测评。本文包括以下内容:康佳k520 固态硬盘测评环境说明康佳k520 固态硬盘开箱康佳k520 固态硬盘实际使用测评  K520测评环境 笔记本一台,配置:T9固态一枚;I7 4702MQ16G 内存sata3接入康佳k520康佳K520开箱  ​康佳K520 盒子正面  ​康佳K520盒子背面   ​康佳K520全家福  康佳K520实际使用测评 首先说说这款固态硬盘再AS 软件上的测试,测试得分一般看到的都是800分左右,从分数来看不错。本文的主要目的是实际使用测评。首先,空盘写入文件,速度波动如下: ​康佳 K520 空盘写入测试操作说明:硬盘格式化为NTFS格式,空盘无任何内容;从另一个固态硬盘复制几十个 1个多G文件,文件类型均为zip压缩包。内容是软件安装程序。从空盘的写入来看,再300+到400之间还是毕竟稳定的,赞一个​就空盘写入来看,康佳的这款K520已经能达到和闪迪入门款/东芝入门款的写入性能了,不错不错。​由于个人使用,500G很容易就用到一半,各类型的固态当容量到一定程度都有不同程度的降速,三星 东芝 这些旗舰产品也不例外,只是他们的好产品有些,降速不明显,中端和入门降速还是明细的。接下来就进行了康佳K520 在写入220G左右后开始复制写入测试,结果如下:​半盘容量后写入测试写入内容为1G左右压缩包。从上图可以明显感觉到降速。可能你觉得一个文件复制有偶然性,那么下面的100+ 1G压缩包给你解除偶然性:​100+ 1Gzip文件写入测试  ​写入性能 注意:同样的文件,我在T9 固态能达到300左右稳定200+以上。仅供大家参考​K520实际使用测评总结硬盘使用为主,软件测试分数只是一个参考,请勿盲目;空盘写入速度比较惊人,快要像一线品牌靠齐了,比较康佳才开始搞这个,这点还是不错的;对于半盘后的降速,我觉得康佳还需努力;本次618价格还算便宜,是个亮点299/500G。应该是最便宜的单G/¥了
  • 固态硬盘那个牌子好2019_固态硬盘如何选择2019

    固态硬盘那个牌子好2019_固态硬盘如何选择2019固态硬盘那个牌子好2019_固态硬盘如何选择2019
  • 建兴固态硬盘怎么样

    建兴固态硬盘怎么样建兴固态硬盘怎么样
  • 将实体机群晖完美迁移到PVE下,并直通网卡直通硬盘

    硬件来源篇​因为之前黑裙配置不高,运行太多Docker容器的话有明显卡顿,所以准备给黑裙换个高配一些的机器于是淘宝上淘了一台洋垃圾惠普工作站 Z420 ,机器具体介绍可以看下知乎Z420的一篇文章 < 传送门 >l;于是等待了几天,这台Z420硬件来源篇​因为之前黑裙配置不高,运行太多Docker容器的话有明显卡顿,所以准备给黑裙换个高配一些的机器于是淘宝上淘了一台洋垃圾惠普工作站 Z420 ,机器具体介绍可以看下知乎Z420的一篇文章 < 传送门 >于是等待了几天,这台Z420到手,配置如下:CPU:E5 2660 V2内存:32G 内存主板:原生V2主板电源:700WBIOS刷了nvme 支持,可以完美m2启动(需要PCI转接卡)买了一块垃圾傲腾40块 16G缓存盘,给黑群当ssd缓存使用!后来遇坑,知道4代以下CPU不支持1.02b以上版本的黑群晖的启动盘,所以又买了一块82576EB芯片的网卡直通使用,最后终于完美支持并可以升级到最新6.22以上是基本配置机器到了之后开始折腾首先傲腾接到PCI转接卡,必须使用WIN10PE引导开机,并使用DiskGenius分区,因为只有WIN10才支持nvme驱动之后按正常方式安装PVE在此附上一份PVE中文版的文档,虽然不是最新版,但是内容大同小异 查看地址:https://github.com/oldiy/Proxmox-VE-Doc黑群晖安装篇所需要文件和工具1、PVE安装包2、DSM3617安装包和引导3、OSFMount_v2.0.1001 引导SN和MAC修改工具4、WinSCP 上传DSM引导至PVE根目录1、 点击“创建虚拟机”按钮,勾上“高级”,勾上“开机自启动”(软路由一般情况下开机启动),名称填入虚拟机名称(例如DSM),点击“下一步”​2、 操作系统选择“Linux”,版本选择“4.X/3.X/2.6 Kernel”即可,选择“不适用任何介质”,点击“下一步”​3、 系统默认即可,点击“下一步​4、 硬盘,随便设置,之后会删除的,点击“下一步”​5、 CPU按照实际情况选择,点击“下一步”​6、 内存大小设置,也是根据实际情况选择(一般2G内存够了),点击“下一步”​7、 网络模型选择“intel E1000”,点击“下一步”(也可以后面通过添加PCIE网卡直通)​8、 确认配置,直接点击“完成”​9、 删除硬盘,选择“DSM” --> “硬件”,找到硬盘,选中点击“分离”​10、 硬盘分离后,选中未使用的磁盘0,点击“删除”​设置DSM引导1、使用WinSCP把解压出来的synoboot.img上传到根目录2、img磁盘转换,选择Shell,输入#qm importdisk 101 /root/synoboot.img local-lvm 会看到vm-101-disk-0正在创建101是虚拟机编号,synoboot.img是刚才上传的引导镜像网卡硬盘直通篇接下来就是直通你的硬盘和网卡了PVE5.3之后的版本可以直接直通,但是如果直接直通的话,会把整个sata总线全部直通过去,就是直接和南桥或者直接和北桥连接的sata总线直通,那么有些主板sata接口就会全部被直通,导致PVE无法启动,所以这并不是我们想要的方式。这里我们只直通单块硬盘,网卡我们使用WebUI直接直通shell里面输入命令:vi /etc/default/grub编辑grub文件找到GRUB_CMDLINE_LINUX_DEFAULT="quiet"修改为GRUB_CMDLINE_LINUX_DEFAULT="quiet intel_iommu=on" 在更新一下:update-grub提示:更新可能有错误,可以不管。 继续输入命令vi /etc/modules 查看modules中是否有vfio、vfio_iommu_type1、vfio_pci、vfio_virqfd ,如果没有请添加。修改好就可以重启系统了。vfio vfio_iommu_type1 vfio_pcioptions vfio_virqfd 之后重启reboot在添加物理磁盘之前,需要先确认其标识(ID)信息,然后根据此信息来确认其设备文件的路径和名称。如图:三块要直通的硬盘记住模型和串行,一会不要通错​我们先用CLI方式获取shell输入#安装 lshw apt-get update apt-get install lshw lshw -C storage -C disk 磁盘ID来列出所有的磁盘设备ls -l /dev/disk/by-id/解释一下:apt-get update为升级为最新的版本 apt-get install lshw 安装磁盘直通的工具ls –l /dev/disk/by-id/查看所有硬盘的信息(包含硬盘id) qm set 101 –sata1 /dev/disk/by-id/硬盘id  为直通硬盘的命令(101是PEV虚拟机的ID)这里讲一下磁盘ID怎么找,你必需选择的是整个硬盘(物理硬盘)而不是分区,比如sda、sdb、sdc对应的id,而不是(sda1、sda2…)比如:qm set 100 -sata1 /dev/disk/by-id/ata-ST8000VN0022-2EL112_ZA1F8YX4 ​ata 表示接口方式,通常有ATA、SATA,SCS,NVME和SASI等类型。IDE和SATA接口一般为“ata”,SCSI及SAS接口一般为”scsi“。添加物理磁盘到虚拟机中需要在shell下通过CLI的方式来添加,使用的工具为qm(Qemu/KVM虚拟机管理器),通过命令”set“来设置物理磁盘到虚拟机中。qm set <vm_id> –<disk_type>[n] /dev/disk/by-id/<type>-$brand-$model_$serial_numbervm_id : 之前创建虚拟机时指定的。<disk_type>[n] : 磁盘的总线类型及其编号,总线类型可以选择IDE、SATA、VirtIO Block和SCSI类型,编号从0开始,最大值根据总线接口类型有所不同,IDE为3,SATA为5,VirTIO Block为15,SCSI为13。”/dev/disk/by-id/<type>-$brand-$model_$serial_number” : 为磁盘ID的具体路径和名称。按照我硬盘的参数举例:如上图的三块硬盘数据为ata-ST3500418AS_5VMTM0MSata-WDC_WD40EFRX-68WT0N0_WD-WCC4E1YTKUK2nvme-INTEL_MEMPEK1J016GAL_BTBT830526NU016N那么挂载命令如下qm set 105 --sata2 /dev/disk/by-id/ata-ST3500418AS_5VMTM0MS qm set 105 --sata3 /dev/disk/by-id/ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E1YTKUK2 qm set 105 --sata4 /dev/disk/by-id/nvme-INTEL_MEMPEK1J016GAL_BTBT830526NU016N之后返回PVE虚拟机,点击硬件,就可以看到已经挂载好的硬盘了之后我们直通网卡,使用webUI直接直通​确定好你自己网卡的型号,我的网卡为82576芯片,双口网卡,那么这里直接可以看到2个网卡,我选择任意一个直通,也可以2个一起直通如下图,是直通好硬盘和网卡的样子​ 之后进入选项,修改引导顺序为1.03b的启动盘,直接开机启动即可​之后就跟正常安装群晖一样了,在这里如果使用82576网卡,可以直接在线安装到群晖最新版6.22​本站教程,仅做为学习参考使用,切勿用于非法及商业用途!造成的后果作者不承担任何责任!本文部分转载自:oD^Blog
  • 分布式系统架构_分布式事物_分布式系统原理

    分布式系统架构_分布式事物_分布式系统原理<h2>引言</h2>     随着大数据时代的到来。大多数之前业务系统已经无法承受大数据带来的冲击。各个大公司小公司都在考虑如何优化自己的业务系统。提高业务能力减少成本支出。随之就引出了 <strong>分布式系统</strong>。 <h2>一.为什么要进行<strong>分布式系统架构</strong>?</h2> <p>  大多数的开发者大多数的系统可能从来没接触过分布式系统,也根本没必要进行分布式系统架构,为什么?因为在访问量或者QPS没有达到单台机器的性能瓶颈的时候,根本没必要进行分布式架构。那如果业务量上来了,一般会怎么解决呢?</p> <p>    首先考虑的就是机器升级。机器配置的垂直扩展,首先要找到当前性能的瓶颈点,是CPU,是内存,是硬盘,还是带宽。砸钱加CPU,砸钱换SSD硬盘,砸钱换1T内存,这通常是解决问题最直接也最高效的方法。带宽不够?加带宽,1G不够用100G。CPU 8核不够?搞32核96核。这是绝大多数公司能思考到的第一个方案,也是最高效最快最安全的方法,立竿见影。</p> <p>    其次就是系统拆分,将所提供服务的主流程以及支线流程梳理出来,按照流程进行系统拆分。如同一棵树,核心业务作为主干流程,其他系统按照需要进行拆分,如同树的开枝散叶。所采取的方式有这么一些,按前后端进行拆分,按照领域拆分,按团队拆分,当然通常来说这些拆分基本都要跟着组织架构走。</p> <p>    再不行就进行技术升级,更换更加高效或者场景适合的技术。比如从 Oracle 更换到HBase。从A数据库连接池更换到B数据库连接池。技术的变革对于业务量的支持也是非常巨大的,同一台机器不同的技术,效能发挥的程度可以说有天壤之别。</p> <p>    最后的最后手段才会考虑分布式架构,实在是砸不出这么多钱了,实在是没办法了。因为分布式架构肯定会带来非常多非常多的一致性问题,原本只需要访问一台机器,现在需要访问N台,那么这N台机器的一致性怎么保证,以前撑死搞个主从备份就算完了,定时同步一下数据就好,现在N台设备的数据怎么管理,甚至这个集群本身怎么管理,都会成为一个致命的问题。</p> <p>    所以只有等业务量到达一定程度了,单台机器扛不住了,才会开始堆钱升级机器,系统拆分,换技术,继续堆钱升级机器,系统拆分...周而复始,发现成本太高或者技术已经到达上线了。最后没办法,就选择分布式架构了。</p> <p>但是分布式架构的优势也是明显的,用一群低廉的设备,来提供一个高性能高吞吐量的稳定的系统,下面开始说说常见的分布式集群的架构。</p> <h2>二.分布式系统架构的几种模式</h2> <h3>2.1纯负载均衡模式</h3>     在集群前面,前置一个流量分发的组件进行流量分发,整个集群的机器提供无差别的服务,这在常见的 web 服务器中是最最常见的。目前比较主流的方式就是整个集群机器上云,根据实时的调用量进行云服务器弹性伸缩。常见的负载均衡有硬件层面的 F5、软件层面的 nginx 等。<br /> <img alt="传统负载均衡" class="img-thumbnail" src="/assist/images/blog/c9ccf03ca8b54ac4852bbe8f1abf10b7.png" /> <h3>2.2<strong>领导选举型</strong></h3> 整个集群的消息都会转发到集群的领导这里,是一种 master-slavers,区别只是这个 master 是被临时选举出来的,一旦 master 宕机,集群会立刻选举出一个新的领导,继续对外提供服务。使用领导选举型架构的典型的应用有 ElasticSearch,zookeeper。<br /> <img alt="领导选举" class="img-thumbnail" src="/assist/images/blog/06857af58c4f4b31a75e5b4ac28f19ed.jpg" /> <h3><strong>2.3区块链型</strong><br /> 整个集群的每一个节点都可以进行记录,但是记录的内容要得到整个集群 N 个机器的认可才是合法的。典型的应用有 Bit Coin,以及 Hyperledger。</h3> <img alt="整个集群的消息都会转发到集群的领导这里,是一种 master-slavers,区别只是这个 master 是被临时选举出来的,一旦 master 宕机,集群会立刻选举出一个新的领导,继续对外提供服务。使用领导选举型架构的典型的应用有 ElasticSearch,zookeeper。" class="img-thumbnail" src="/assist/images/blog/78cd41be88fa409c9c11e77c5ef193ff.jpg" /> <h3>2.4<strong>master-slaver型</strong></h3> 整个集群以某台 master 为中枢,进行集群的调度。交互是这样,一般会把所有的管理类型的数据放到 master 上,而把具体的数据放到 slaver 上,实际进行调用的时候,client 先调用 master 获取数据所存放的 server 的 信息,再自行跟 slave 进行交互。典型的系统有 Hadoop。集群,HBase 集群,Redis 集群等。<br /> <img alt="整个集群以某台 master 为中枢,进行集群的调度。交互是这样,一般会把所有的管理类型的数据放到 master 上,而把具体的数据放到 slaver 上,实际进行调用的时候,client 先调用 master 获取数据所存放的 server 的 信息,再自行跟 slave 进行交互。典型的系统有 Hadoop。集群,HBase 集群,Redis 集群等。" class="img-thumbnail" src="/assist/images/blog/68bb6e12564d491da16f3569088b7896.jpg" /> <h3>2.5<strong>规则型一致性Hash</strong></h3> 这种架构类型一般出现在数据库分库分表的设计中。按照规则进行分库分表,在查询之前使用规则引擎进行库和表的确认,再对具体的应用进行访问。为什么要用一致性 Hash ?其实用什么都可以,只是对于这类应用来说一致性 Hash 比较常见而已。<br /> <img alt="这种架构类型一般出现在数据库分库分表的设计中。按照规则进行分库分表,在查询之前使用规则引擎进行库和表的确认,再对具体的应用进行访问。为什么要用一致性 Hash ?其实用什么都可以,只是对于这类应用来说一致性 Hash 比较常见而已。" class="img-thumbnail" src="/assist/images/blog/2735e320027f4f91bbd9319fda6f5b93.jpg" /><br />