搜索词>>SD卡 耗时0.0050
  • 夏科内存卡32G测评

    ​夏科32G内存卡购入渠道夏科32G内存卡,这次在一个群里某位大佬发的车​夏科32G内存卡购入渠道夏科32G内存卡,这次在一个群里某位大佬发的车。天猫旗舰店标价8.9元,车上有3元的卷,所以夏科的这款32G Class10的内存卡买成5.9元。夏科32G内存卡是否为扩容卡 很多上车的朋友都担心这么便宜,扩容卡么。。。。,我拿到手以后立即复制了28G左右的视频文件进去,然后下面这个样子​​从上面来看应该不是扩容卡夏科32G内存卡速度怎么样 官方标称 读取能达到恐怖的95/s,实际情况如下:​从复制文件来看。虽然没达到98M,但是18M还是挺稳的,应该算USB2.0的U盘常规速度。接下来是写入速度:​卧槽写入速度比普通USB2.0U盘还快。并且从复制的曲线图可以看到写入速度的变动不是特别大,稳妥啊。夏科 32G的车翻了吗 从上面的两个基本情况来看。这车值得啊。用来备份点数据啥的还是可以哟。可惜博主写这个文章的时候5.9的车已经渐行渐远了。现在是15.9的价格了。这价格感觉就。。。。。。。​
  • 小米公交卡注意事项(吐槽点)

    小米公交卡你值得注意的地方小米公交卡的开通确实为一部分人带来了便利小米公交卡你值得注意的地方小米公交卡的开通确实为一部分人带来了便利。毕竟出门不用带公交卡又能少一桩事儿。小米公交卡注意事项:1.小米公交卡服务费/开卡费不可退; 很多朋友在开通后才知道,小米收的是服务费并非实体卡的开卡制卡费。不可退。至于为何要收就不得而知了。反正苹果系列也有公交卡但是开卡费可退。当然苹果的接入确实比小米少很多很多。开卡的时候不会提醒你哟。自己去阅读协议吧,几千字的大协议写的有。2.小米公交卡换手机大多数不能移卡(日期:20181012) 很多人用小米手机都是一年一换,但是居住的城市一般都不会这么频繁的。有的甚至是长居。目前小米换手机仅一个城市支持换卡,其他城市换了手机必须重新开卡。(作为一个技术人员,我可以明确地说,这是小米的一个巨坑了,nfc的可读写宣传是骗人的吗?卡与账户绑定,这个还可以理解毕竟小米云嘛,卡与手机必须绑定...这...于情于理不合适这么做吧。你说第一条你收服务费为了补贴前期跑开卡业务的支出已经戳戳有余了吧。按照小米用户量来说再怎么也收了几个亿的服务费了吧。)小米公交卡换手机重新开卡对比苹果的开卡:苹果开卡苹果明确提示  可退服务费。
  • Ubuntu禁用独立显卡方法

    Ubuntu禁用独立显卡方法Ubuntu禁用独立显卡方法<br />   <pre> <code class="language-bash">sudo su echo IGD > /sys/kernel/debug/vgaswitcheroo/switch echo OFF > /sys/kernel/debug/vgaswitcheroo/switch</code></pre> <br /> 设置成开机启动自动设置<br /> /etc/rc.local里的exit 0之前加以下代码: <pre> <code class="language-bash">echo IGD > /sys/kernel/debug/vgaswitcheroo/switch echo OFF > /sys/kernel/debug/vgaswitcheroo/switch</code></pre> <br /> 要查看显卡状态在终端里 <pre> <code class="language-bash">cat /sys/kernel/debug/vgaswitcheroo/switch</code></pre>  
  • 某东电话卡怎么样?千万不要用巨坑!

    某东电话卡怎么样?某东电话卡购买记录购买记录千万不要用巨坑!具体由我来说道说到吧某东电话卡怎么样?某东电话卡购买记录购买记录千万不要用巨坑!具体由我来说道说到吧。某东电话卡来源 在某东商城购买了一块小米的儿童电话手表,赠送的一张5元的无忧卡。大概套餐如下:月费赠送国内流量国内语音短信5元/月国内语音60分钟0.3元/100M0.15/分钟0.1/条咋一看,用于儿童手表还不错的对吧。嗯,至少最初我也是这么觉得的某东电话卡巨坑说明上面看到套餐都不错呀,为啥我会说某东的电话卡有巨坑呢。具体来源,就是短信部分,对你没听错,短信0.1元一条。但是:使用某东系列的服务,获取短信类验证码,会扣除用户手机的费用0.1元/条!!!请注意,使用某东相关的服务,短信类验证吗需要0.1元一条!!!请注意,手机卡查询花费(虽然卡是联通制式的但是无法登录联通营业厅)详情,需要登录,需要验证码,查询话费详单只有短信验证码,也就说查话费都要钱。这估计是我用通信业务来首次遇到的!!!!好了,我要去看看怎么停机了。推荐大家不要使用某东卡,坑人!!!
  • GT 1030显卡测评

    一、GT 1030 显卡怎么样      GT 1030显卡抉择,GT 1030是又一款入门级显卡一、GT 1030 显卡怎么样      GT 1030显卡抉择,GT 1030是又一款入门级显卡。其性能肯定是同辈中垫底的,但是在入门显卡的排行里可算得上性能排行老大了。还记得前几代的GT 710/GT 730 甚至古老的GT 210吗?它们如今还占领了OEM大半江山呢但是这些入门显卡性能统统不是GT 1030的对手。    那么那些人会选择它呢?首先肯定不会是大型单机或大型网游的爱好者,更不会是一些发烧友。首先我们先看看下面的一些测评对比吧​1030二、GT 1030 常见游戏测评2.1 GT 1030 游戏:《古墓丽影10:崛起》1080分辨率测试​《古墓丽影10:崛起》1080分辨率测试2.2 GT 1030 游戏:《战锤 全面战争》1080分辨率测试​《战锤 全面战争》1080分辨率测试2.3 GT 1030 游戏:英雄联盟(LOL)​英雄联盟(LOL)2.4 GT 1030 游戏:守望者先锋​守望者先锋三、3D Mark跑分​3D Mark跑分四、功耗及综合性能4.1 功耗对比​功耗对比4.2 综合性能评估​综合性能评估五、综合评价 1.性能。GT 1030已经完虐GT 730和Intel所有集显,完美取代了上一代入门显卡GT 730的位置。成为低端入门显卡主流选择。2.功耗。GT 1030满载不过100W,自身发热量低,被动散热即可。是HTPC用户的主流选择之一。3.接口。提供HDMI高清输出接口4.价格。购入价格需控制在450左右,否则性价比不高了。综述:入门性能强悍,4K支持,静音(被动散热)功耗低。最后注意:GT 1030有两个版本,切记只能买GDDR5显存版
  • 威盛VIA VL 805主控芯片的USB3.0转接卡支持Linux系统吗

    本文主要证明威盛VIA VL 805主控芯片的USB3.0转接卡支持Linux是否支持Linux系统,以及转接的性能速度怎么样本文主要证明威盛VIA VL 805主控芯片的USB3.0转接卡支持Linux是否支持Linux系统,以及转接的性能速度怎么样<br /> <br /> Q:<strong>威盛VIA VL 805主控芯片的USB3.0转接卡支持Linux系统?</strong><br /> A:<span style="color:#2ecc71">支持,测试系统为centos7,平台h81+G1840.具体如下图:</span><br /> <img alt="威盛VIA VL 805主控芯片Linux系统支持图证明" class="img-thumbnail" src="/assets/upload/blog/thumbnail/2017-05/cd5adf86bdfe4f8593d7db57440d0b4a.png" /><br /> <br /> Q:威盛VIA VL 805主控芯片的USB3.0转接卡支速度怎么样?<br /> A:<span style="color:#2ecc71">速度除了芯片自身的原因还和制造转接卡的厂商有关.我这张卡从转接卡的usb3.0到移动硬盘的速度稳定135 MB/s还算过得去。VL 805的理论速度为5Gbps。因机械硬盘速度瓶颈一般也就100多MB每秒</span>
  • Remote System Explorer Operation导致eclipse慢或者卡死解决

    Remote System Explorer Operation导致eclipse慢或者卡死eclipse解决,eclipse<p>eclipse 出现“Remote System Explorer Operation”。导致eclipse卡死解决办法<br /> <br /> <strong>第一步:</strong><br /> Eclipse -> Preferences -> General -> Startup and Shutdown.不要勾选 RSE UI.<br /> <strong>第二步:</strong><br /> Eclipse -> Preferences -> Remote Systems. 取消勾选 Re-open Remote Systems view to previous state.<br /> <strong>最后:</strong>重启eclipse就可以了。<br />  </p>
  • 软RAID管理命令mdadm详解

    软RAID管理命令mdadm详解<p>mdadm是linux下用于创建和管理软件RAID的命令,是一个模式化命令。但由于现在服务器一般都带有RAID阵列卡,并且RAID阵列卡也很廉价,且由于软件RAID的自身缺陷(不能用作启动分区、使用CPU实现,降低CPU利用率),因此在生产环境下并不适用。但为了学习和了解RAID原理和管理,因此仍然进行一个详细的讲解:</p> <h2>一、创建模式</h2> 选项:-C<br /> 专用选项:<br /> -l 级别<br /> -n 设备个数<br /> -a {yes|no} 自动为其创建设备文件<br /> -c 指定数据块大小(chunk)<br /> -x 指定空闲盘(热备磁盘)个数,空闲盘(热备磁盘)能在工作盘损坏后自动顶替<br /> 注意:创建阵列时,阵列所需磁盘数为-n参数和-x参数的个数和<br /> <img alt="参数详解" class="img-thumbnail" src="/assets/upload/blog/thumbnail/2018-01/84c8ea6c57434a7087703e666a4337f7.png" /><br /> 示例: <h3>前置条件:</h3> <ol> <li><strong>使用fdisk创建/dev/sdb1  /dev/sdc2分区</strong></li> <li><strong>创建的分区必须是主分区fdisk /dev/sd? 进入后 n然后选择p)</strong></li> <li><strong>设置分区文件类型为fd(fdisk /dev/sd? 进入后 t然后fd)</strong></li> </ol> <h3>1、创建raid0:</h3> <p><strong>1.1 创建raid</strong></p> <pre> <code class="language-html">mdadm -C /dev/md0 -a yes -l 0 -n 2 /dev/sdb{1,2} mdadm -C /dev/md0 -a yes -l 0 -n 2 /dev/sdb1 /dev/sdc2</code></pre> <img class="img-thumbnail" src="data:image/gif;base64,R0lGODlhAQABAPABAP///wAAACH5BAEKAAAALAAAAAABAAEAAAICRAEAOw==" /><img class="img-thumbnail" src="data:image/gif;base64,R0lGODlhAQABAPABAP///wAAACH5BAEKAAAALAAAAAABAAEAAAICRAEAOw==" style="height:15px; width:15px" title="点击并拖拽以移动" /><br /> 注意:用于创建raid的磁盘分区类型需为fd<br /> <strong> 1.2 格式化:</strong> <pre> <code class="language-html">mkfs.ext4 /dev/md0</code></pre> 注意:在格式化时,可以指定-E选项下的stride参数指定条带是块大小的多少倍,有在一定程度上提高软RAID性能,如块默认大小为4k,而条带大小默认为64k,则stride为16,这样就避免了RAID每次存取数据时都去计算条带大小,如: <pre> <code class="language-html">mkfs.ext4  -E stride=16 -b 4096 /dev/md0</code></pre> <br /> 其中stride=chunk/block,为2的n次方 <h3>2、创建raid1:</h3> <strong>2.1 创建raid</strong> <pre> <code class="language-html">[root@localhost ~]# mdadm -C /dev/md1 -a yes -n 2 -l 1 /dev/sdb{5,6} mdadm: Note: this array has metadata at the start and may not be suitable as a boot device.  If you plan to store '/boot' on this device please ensure that your boot-loader understands md/v1.x metadata, or use --metadata=0.90 Continue creating array? y mdadm: Defaulting to version 1.2 metadata mdadm: array /dev/md1 started.</code></pre> <br /> <strong>注意:</strong>这个提示是说软raid不能用作启动分区。<br /> <strong> 2.2 格式化:</strong> <pre> <code class="language-html">[root@localhost ~]# mkfs.ext4  /dev/md1</code></pre> <h3><br /> 3、创建raid5:</h3> 由于没有磁盘空间,我将原来做raid1的测试磁盘全部删除后重新建立四个分区用于raid5测试,分别为sdb5-8<br /> <strong>3.1 创建raid5</strong> <pre> <code class="language-html">[root@localhost ~]# mdadm -C /dev/md2 -a yes -l 5 -n 3 /dev/sdb{5,6,7} mdadm: /dev/sdb5 appears to be part of a raid array: level=raid1 devices=2 ctime=Sun Jul 14 09:14:25 2013 mdadm: /dev/sdb6 appears to be part of a raid array: level=raid1 devices=2 ctime=Sun Jul 14 09:14:25 2013 mdadm: /dev/sdb7 appears to be part of a raid array: level=raid1 devices=2 ctime=Sun Jul 14 09:14:25 2013 Continue creating array? y mdadm: Defaulting to version 1.2 metadata mdadm: array /dev/md2 started.</code></pre> <br /> <strong>注意:</strong>由于我的分区刚才在raid1上使用过,因此有此提示。<br /> <strong>3.2 格式化:</strong> <pre> <code class="language-html">[root@localhost ~]# mkfs.ext4 /dev/md2</code></pre> <br /> <strong>3.3 增加热备磁盘:</strong> <pre> <code class="language-html">[root@localhost ~]# mdadm /dev/md2 -a /dev/sdb8</code></pre> <h3><br /> <strong>4、查看md状态:</strong></h3> <strong>4.1 查看RAID阵列的详细信息:</strong><br /> <strong>选项:</strong> -D = --detail <pre> <code class="language-html">mdadm -D /dev/md#   查看指定RAID设备的详细信息</code></pre> <br /> <strong>4.2 查看raid状态</strong> <pre> <code class="language-html">[root@localhost ~]# cat /proc/mdstat Personalities : [raid0] [raid1] md0 : active raid0 sdb2[1] sdb1[0]      4206592 blocks super 1.2 512k chunks md1 : active raid1 sdb6[1] sdb5[0]       2103447 blocks super 1.2 [2/2] [UU] unused devices: <none></code></pre> <br /> <strong>注意:</strong>在创建raid前,应该先查看磁盘是否被识别,如果内核还为识别,创建Raid时会报错: <pre> <code class="language-html">cat /proc/partitions</code></pre> <br /> 如果没有被识别,可以执行命令: <pre> <code class="language-html">kpartx /dev/sdb或者partprobe/dev/sdb</code></pre> <h5><strong>5.挂载raid到目录</strong></h5> 创建一个测试的挂载目录 <pre> <code class="language-html">#mkdir /md</code></pre> 挂载上面的raid(这里挂载md0) <pre> <code class="language-html">#mount /dev/md0 /md</code></pre> <br /> 设置开机自动挂载<br /> 编辑/etc/fstab <pre> <code>#vi /etc/fstab</code></pre> 添加下方最后一行 <pre> <code class="language-html"># # /etc/fstab # Created by anaconda on Tue Apr 10 21:05:33 2018 # # Accessible filesystems, by reference, are maintained under '/dev/disk' # See man pages fstab(5), findfs(8), mount(8) and/or blkid(8) for more info # UUID=7d9131a9-9b81-4e04-8beb-f6c834e1ac41 / xfs defaults 0 0 UUID=10d14473-dfd4-4a5d-a4e9-bd66117b450c /boot xfs defaults 0 0 UUID=9ad8d627-7699-4b7a-8c70-f03fcc63180e swap swap defaults 0 0 #mount RAID /dev/md0 /md ext4 defaults 0 0 </code></pre> 如果挂载多个就按格式写多个<br />   <h2>二、管理模式</h2> <strong>选项:</strong>-a(--add),-d(--del),-r(--remove),-f(--fail) <h3><strong>1、模拟损坏:</strong></h3> <pre> <code class="language-html">mdadm /dev/md1 -f /dev/sdb5</code></pre> <h3><br /> <strong>2、移除损坏的磁盘:</strong></h3> <pre> <code class="language-html">mdadm /dev/md1 -r /dev/sdb5</code></pre> <h3><br /> <strong>3、添加新的硬盘到已有阵列:</strong></h3> <pre> <code class="language-html">mdadm /dev/md1 -a /dev/sdb7</code></pre> <br /> <strong>注意:</strong><br /> 3.1、新增加的硬盘需要与原硬盘大小一致<br /> 3.2、如果原有阵列缺少工作磁盘(如raid1只有一块在工作,raid5只有2块在工作),这时新增加的磁盘直接变为工作磁盘,如果原有阵列工作正常,则新增加的磁盘为热备磁盘。 <h3><strong>4、停止阵列:</strong></h3> <p>选项:-S = --stop</p> <pre> <code class="language-html">mdadm -S /dev/md1</code></pre> <h2>三、监控模式</h2> 选项:-F<br /> 不常用,不做详细说明。 <h2>四、增长模式,用于增加磁盘,为阵列扩容:</h2> <strong>选项:</strong>-G <h3>示例,将上述raid5的热备磁盘增加到阵列工作磁盘中</h3> <pre> <code class="language-html">[root@localhost ~]# mdadm -G /dev/md2  -n 4</code></pre> <br /> <strong>注意:</strong>-n 4 表示使用四块工作磁盘<br /> 再次使用-D选项查看阵列详细信息如下: <pre> <code class="language-html">[root@localhost ~]# mdadm -D /dev/md2 ……此处略掉部分信息……    Number   Major   Minor   RaidDevice State            0       8       21        0      active sync   /dev/sdb5            1       8       22        1      active sync   /dev/sdb6              3       8       23        2      active sync   /dev/sdb7            4       8       24        3      active sync   /dev/sdb8</code></pre> <h2>五、装配模式,软RAID是基于系统的,当原系统损坏了,需要重新装配RAID</h2> <strong>选项:</strong>-A <h3>示例:将上述已经停止的阵列重新装配:</h3> <pre> <code class="language-html">mdadm -A /dev/md1 /dev/sdb5 /dev/sdb6</code></pre> <h3><br /> 实现自动装配:</h3> <p>mdadm运行时会自动检查/etc/mdadm.conf  文件并尝试自动装配,因此第一次配置raid后可以将信息导入到/etc/mdadm.conf  中,命令如下:</p> <pre> <code class="language-html">[root@localhost ~]# mdadm -Ds >/etc/mdadm.conf</code></pre>   <h2>六、常见情况操作说明</h2> <h3><strong>案例1</strong>:</h3> 现在有A/B两块硬盘<br /> <br /> A盘分区情况:<br />    分一个区作为系统分区(sda1)100GB;<br />    分一个区作为raid分区(sdb2)600GB;<br /> <br /> B盘分区情况<br />    分一个区作为raid分区(sdb1)600GB<br /> <br /> 情况①:硬盘B完全损坏<br /> raid恢复方案:<br /> 新增一块硬盘大小大于600GB,分一个raid区(假如分区为sdb1)600GB<br /> 执行命令: <pre> <code class="language-html">#mdadm /dev/md1 -a /dev/sdb1</code></pre> 执行后就会自动开始同步数据到sdc1模块上。可以通过以下命令查看进度 <pre> <code class="language-html">#mdadm -D /dev/md1 </code></pre> <pre> <code>[root@localhost ~]# mdadm -D /dev/md1 /dev/md1: Version : 1.2 Creation Time : Thu Jan 25 07:15:06 2018 Raid Level : raid1 Array Size : 629014528 (599.88 GiB 644.11 GB) Used Dev Size : 629014528 (599.88 GiB 644.11 GB) Raid Devices : 2 Total Devices : 2 Persistence : Superblock is persistent Intent Bitmap : Internal Update Time : Sun May 27 07:04:57 2018 State : clean, degraded, recovering Active Devices : 1 Working Devices : 2 Failed Devices : 0 Spare Devices : 1 Consistency Policy : unknown Rebuild Status : 1% complete Name : localhost.localdomain:1 (local to host localhost.localdomain) UUID : 401d70fc:1d8675af:2adb9bb4:0b9b37e6 Events : 16931 Number Major Minor RaidDevice State 0 8 33 0 active sync /dev/sdc1 2 8 17 1 spare rebuilding /dev/sdb1 [root@localhost ~]# </code></pre> 等到完全进度100%即可。恢复完成。<br /> <br /> 情况② 硬盘A完全坏掉<br /> 注意:系统也在A盘的分区中。所以只能新增一块硬盘,并且新装一个系统。在装好系统后检查mdadm是否安装。如果没有安装则安装该软件。<br /> 安装完成后将硬盘B插入系统中。此时在/dev/目录下就可以看到md1的raid盘。通过mdadm -D命令查看可以看到是一个降级的raid。这里只要再从新装的盘中分一个区或者再加一块硬盘分一个区进行重组即可。重组步骤<br />     1>新建一个raid分区(600G)<br />     2>执行命令添加热备盘即可    mdadm /dev/md1 -a /dev/sd?1<br /> <br /> <br />  
  • 将实体机群晖完美迁移到PVE下,并直通网卡直通硬盘

    硬件来源篇​因为之前黑裙配置不高,运行太多Docker容器的话有明显卡顿,所以准备给黑裙换个高配一些的机器于是淘宝上淘了一台洋垃圾惠普工作站 Z420 ,机器具体介绍可以看下知乎Z420的一篇文章 < 传送门 >l;于是等待了几天,这台Z420硬件来源篇​因为之前黑裙配置不高,运行太多Docker容器的话有明显卡顿,所以准备给黑裙换个高配一些的机器于是淘宝上淘了一台洋垃圾惠普工作站 Z420 ,机器具体介绍可以看下知乎Z420的一篇文章 < 传送门 >于是等待了几天,这台Z420到手,配置如下:CPU:E5 2660 V2内存:32G 内存主板:原生V2主板电源:700WBIOS刷了nvme 支持,可以完美m2启动(需要PCI转接卡)买了一块垃圾傲腾40块 16G缓存盘,给黑群当ssd缓存使用!后来遇坑,知道4代以下CPU不支持1.02b以上版本的黑群晖的启动盘,所以又买了一块82576EB芯片的网卡直通使用,最后终于完美支持并可以升级到最新6.22以上是基本配置机器到了之后开始折腾首先傲腾接到PCI转接卡,必须使用WIN10PE引导开机,并使用DiskGenius分区,因为只有WIN10才支持nvme驱动之后按正常方式安装PVE在此附上一份PVE中文版的文档,虽然不是最新版,但是内容大同小异 查看地址:https://github.com/oldiy/Proxmox-VE-Doc黑群晖安装篇所需要文件和工具1、PVE安装包2、DSM3617安装包和引导3、OSFMount_v2.0.1001 引导SN和MAC修改工具4、WinSCP 上传DSM引导至PVE根目录1、 点击“创建虚拟机”按钮,勾上“高级”,勾上“开机自启动”(软路由一般情况下开机启动),名称填入虚拟机名称(例如DSM),点击“下一步”​2、 操作系统选择“Linux”,版本选择“4.X/3.X/2.6 Kernel”即可,选择“不适用任何介质”,点击“下一步”​3、 系统默认即可,点击“下一步​4、 硬盘,随便设置,之后会删除的,点击“下一步”​5、 CPU按照实际情况选择,点击“下一步”​6、 内存大小设置,也是根据实际情况选择(一般2G内存够了),点击“下一步”​7、 网络模型选择“intel E1000”,点击“下一步”(也可以后面通过添加PCIE网卡直通)​8、 确认配置,直接点击“完成”​9、 删除硬盘,选择“DSM” --> “硬件”,找到硬盘,选中点击“分离”​10、 硬盘分离后,选中未使用的磁盘0,点击“删除”​设置DSM引导1、使用WinSCP把解压出来的synoboot.img上传到根目录2、img磁盘转换,选择Shell,输入#qm importdisk 101 /root/synoboot.img local-lvm 会看到vm-101-disk-0正在创建101是虚拟机编号,synoboot.img是刚才上传的引导镜像网卡硬盘直通篇接下来就是直通你的硬盘和网卡了PVE5.3之后的版本可以直接直通,但是如果直接直通的话,会把整个sata总线全部直通过去,就是直接和南桥或者直接和北桥连接的sata总线直通,那么有些主板sata接口就会全部被直通,导致PVE无法启动,所以这并不是我们想要的方式。这里我们只直通单块硬盘,网卡我们使用WebUI直接直通shell里面输入命令:vi /etc/default/grub编辑grub文件找到GRUB_CMDLINE_LINUX_DEFAULT="quiet"修改为GRUB_CMDLINE_LINUX_DEFAULT="quiet intel_iommu=on" 在更新一下:update-grub提示:更新可能有错误,可以不管。 继续输入命令vi /etc/modules 查看modules中是否有vfio、vfio_iommu_type1、vfio_pci、vfio_virqfd ,如果没有请添加。修改好就可以重启系统了。vfio vfio_iommu_type1 vfio_pcioptions vfio_virqfd 之后重启reboot在添加物理磁盘之前,需要先确认其标识(ID)信息,然后根据此信息来确认其设备文件的路径和名称。如图:三块要直通的硬盘记住模型和串行,一会不要通错​我们先用CLI方式获取shell输入#安装 lshw apt-get update apt-get install lshw lshw -C storage -C disk 磁盘ID来列出所有的磁盘设备ls -l /dev/disk/by-id/解释一下:apt-get update为升级为最新的版本 apt-get install lshw 安装磁盘直通的工具ls –l /dev/disk/by-id/查看所有硬盘的信息(包含硬盘id) qm set 101 –sata1 /dev/disk/by-id/硬盘id  为直通硬盘的命令(101是PEV虚拟机的ID)这里讲一下磁盘ID怎么找,你必需选择的是整个硬盘(物理硬盘)而不是分区,比如sda、sdb、sdc对应的id,而不是(sda1、sda2…)比如:qm set 100 -sata1 /dev/disk/by-id/ata-ST8000VN0022-2EL112_ZA1F8YX4 ​ata 表示接口方式,通常有ATA、SATA,SCS,NVME和SASI等类型。IDE和SATA接口一般为“ata”,SCSI及SAS接口一般为”scsi“。添加物理磁盘到虚拟机中需要在shell下通过CLI的方式来添加,使用的工具为qm(Qemu/KVM虚拟机管理器),通过命令”set“来设置物理磁盘到虚拟机中。qm set <vm_id> –<disk_type>[n] /dev/disk/by-id/<type>-$brand-$model_$serial_numbervm_id : 之前创建虚拟机时指定的。<disk_type>[n] : 磁盘的总线类型及其编号,总线类型可以选择IDE、SATA、VirtIO Block和SCSI类型,编号从0开始,最大值根据总线接口类型有所不同,IDE为3,SATA为5,VirTIO Block为15,SCSI为13。”/dev/disk/by-id/<type>-$brand-$model_$serial_number” : 为磁盘ID的具体路径和名称。按照我硬盘的参数举例:如上图的三块硬盘数据为ata-ST3500418AS_5VMTM0MSata-WDC_WD40EFRX-68WT0N0_WD-WCC4E1YTKUK2nvme-INTEL_MEMPEK1J016GAL_BTBT830526NU016N那么挂载命令如下qm set 105 --sata2 /dev/disk/by-id/ata-ST3500418AS_5VMTM0MS qm set 105 --sata3 /dev/disk/by-id/ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E1YTKUK2 qm set 105 --sata4 /dev/disk/by-id/nvme-INTEL_MEMPEK1J016GAL_BTBT830526NU016N之后返回PVE虚拟机,点击硬件,就可以看到已经挂载好的硬盘了之后我们直通网卡,使用webUI直接直通​确定好你自己网卡的型号,我的网卡为82576芯片,双口网卡,那么这里直接可以看到2个网卡,我选择任意一个直通,也可以2个一起直通如下图,是直通好硬盘和网卡的样子​ 之后进入选项,修改引导顺序为1.03b的启动盘,直接开机启动即可​之后就跟正常安装群晖一样了,在这里如果使用82576网卡,可以直接在线安装到群晖最新版6.22​本站教程,仅做为学习参考使用,切勿用于非法及商业用途!造成的后果作者不承担任何责任!本文部分转载自:oD^Blog
  • Apache ab压力测试摘记

    Apache ab压力测试摘记命令:ab -n 800 -c 800 http://192.168.0.10/ 说明:(-n发出800个请求,-c模拟800并发,相当800人同时访问,后面是测试url)命令:ab -t 60 -c 100 http://192.168.0.10/ 说明:在60秒内发请求,一次100个请求。命令:ab -t 60 -c 100 -T "text/plain" -p p.txt http://192.168.0.10/hello.html 说明:如果需要在url中带参数p.txt 是和ab.exe在一个目录 p.txt 中可以写参数,如 p=wdp&fq=78结果参数解释This is ApacheBench, Version 2.3 <$Revision: 655654 $> Copyright 1996 Adam Twiss, Zeus Technology Ltd, http://www.zeustech.net/ Licensed to The Apache Software Foundation, http://www.apache.org/ Benchmarking 192.168.0.10 (be patient) Completed 100 requests Completed 200 requests Completed 300 requests Completed 400 requests Completed 500 requests Completed 600 requests Completed 700 requests Completed 800 requests Finished 800 requests Server Software: Microsoft-HTTPAPI/2.0 Server Hostname: 192.168.0.10 Server Port: 80 Document Path: / Document Length: 315 bytes HTTP响应数据的正文长度 Concurrency Level: 800 Time taken for tests: 0.914 seconds 所有这些请求处理完成所花费的时间 Complete requests: 800 完成请求数 Failed requests: 0 失败请求数 Write errors: 0 Non-2xx responses: 800 Total transferred: 393600 bytes 网络总传输量 HTML transferred: 252000 bytes HTML内容传输量 Requests per second: 875.22 [#/sec] (mean) 吞吐量-每秒请求数 Time per request: 914.052 [ms] (mean) 服务器收到请求,响应页面要花费的时间 Time per request: 1.143 [ms] (mean, across all concurrent requests) 并发的每个请求平均消耗时间 Transfer rate: 420.52 [Kbytes/sec] received 平均每秒网络上的流量,可以帮助排除是否存在网络流量过大导致响应时间延长的问题 网络上消耗的时间的分解: Connection Times (ms) min mean[+/-sd] median max Connect: 0 1 0.5 1 3 Processing: 245 534 125.2 570 682 Waiting: 11 386 189.1 409 669 Total: 246 535 125.0 571 684 整个场景中所有请求的响应情况。在场景中每个请求都有一个响应时间 其中 50% 的用户响应时间小于 571 毫秒 80 % 的用户响应时间小于 652 毫秒 最大的响应时间小于 684 毫秒 Percentage of the requests served within a certain time (ms) 50% 571 66% 627 75% 646 80% 652 90% 666 95% 677 98% 681 99% 682 100% 684 (longest request)