教研室有台tplink不知道怎么回事,总是自己掉线,还是很奇葩的那种掉线,明明ip和网关都变0.0.0.0了,还是显示在线,导致自带的自动登陆功能不起作用。 之前都是手动check和重新登陆,实在是浪费生命,于是乎来个定时脚本搞定吧,反正教研室有24小时online的服务器。 整个任务大体上分为三个步骤: 分析tplink管理API 编写管理脚本 使用systemd timer定时启动脚本(当然cron也是可以的,但是作为Archer,怎么能不用最新技术~) 1. 分析tplink管理API 首先登陆http://192.168.0.1 (替换成自己的管理地址,下同),教研室的这个型号是WR842N,登陆界面及其简单,就一个密码框。一开始我以为是把密码用明文或者hash一下post给路由,但是填写密码后发现没有post数据,百思不得其解,后来几番搜索,找到一篇分析的好文,这篇文章不仅告诉了如何登陆,而且还分析的很详细。想了解详情的请参见这篇blog。至于代码,我做了简化,直接把chrome里监控到的header粘进代码发送,简单粗暴~ 2. 编写管理脚本 重点来了,先贴代码: # -*- coding: utf-8 -*- import urllib.request import sys progArgs = [“get_status”, “login”] ip = “192.168.0.1” […]

这个问题无外乎有三个难点: 什么是sum 什么是reduce 什么是维度(indices, 现在均改为了axis和numpy等包一致) sum很简单,就是求和,那么问题就是2和3,让我们慢慢来讲。其实彻底讲清楚了这个问题,很多关于reduce,维度的问题都会恍然大悟。 0. 到底操作哪个维度?? sum这个操作完全可以泛化为任意函数,我们就以sum为例,来看看各种情况。 首先是一维(按照tensorflow的说法其实是0维,后面会说)就是这样 a = 1 sum(a) = 1 那么看看二维的情况,为了看的更清楚,特意写成了矩阵的形式: a = [[1,2], [3,4]] sum(a) = ??? 仔细观察,那么问题来了,sum(a)到底应该是多少?有人说,当然是[3, 7](“横着加”[[1+2],[3+4]]),有人说 不应该是[4, 6](“竖着加”[[1+3],[2+4]])吗?还有人或说,不应该是10(全加在一起)吗? 谁是对的? 都是对的。 […]

参考链接:http://bbs.tianya.cn/post-english-118927-1.shtml 一、全国人民代表大会常务委员会 standing committee of the national people’s congress (npc) 委员长 chairman 副委员长 vice—chairman 秘书长 secretary—general 副秘书长 deputy secretary—general 委员 member 全国人民代表大会…委员会…comimittee/commission of the npc 主任委员 chairman 副主任委员 vice—chairman 委员 […]

$ uptime:输出最近1, 5, 15分钟的负载。 $ dmesg | tail:输出系统日志的最后10行,用于检查内核报警。 $ vmstat 1:输出系统核心指标,其中r, free, (si, so), (us, sy, id, wa, st)分别代表等待CPU资源进程数,系统可用内存数,(交换区写入,读取),(用户,系统,空闲,IO等待,其他CPU时间),参数表示刷新间隔/秒。 $ mpstat -P ALL 1:输出每个CPU的占用情况,一般若有一个CPU占用率特别高,则可能是一个单线程应用程序引起的。 $ pidstat 1:输出进程的CPU占用率。 $ iostat -xz […]

参考链接:https://www.maketecheasier.com/fix-black-background-behind-folder-icons-windows10/ 新建一个批处理文件并运行,文件内容如下: echo. taskkill /f /im explorer.exe timeout 2 /nobreak>nul echo. DEL /F /S /Q /A %LocalAppData%\IconCache.db DEL /F /S /Q /A %LocalAppData%\Microsoft\Windows\Explorer\iconcache_*.db DEL /F /S /Q /A %LocalAppData%\Microsoft\Windows\Explorer\thumbcache_*.db timeout […]

最近看自然语言处理词频统计的时候,看到的一种方法,小记于此。 伪计数可以看做是一种平滑,由拉普拉斯提出,也称为拉普拉斯平滑。 伪计数估计量的具体公式是: $$\hat\theta_i = \frac{x_i + \alpha}{ N + \alpha d} \quad (i = 1,…,d)$$ 其中$\hat\theta_i$是估计量,$x_i$是观测到的事件分类,$\alpha$是平滑参数(有些学者认为应该是1,不过一般都比较小,比如取0.5),$N$是观测事件总数,$d$是观测值的可能分类,例如二分类问题中$d=2$。 那么这个公式是什么意思呢?具体地说,为什么要这么规定这种平滑?那是因为这种平滑的好处是它的值在经验估计$\frac{x_i}{N}$与均匀分布概率$\frac{1}{d}$之间。也就是很好的完成了从事实发生概率到随机发生概率的平滑任务。 再具体一点是什么意思呢?那么我觉得就要从它的来历说起了。历史上,拉普拉斯试图估计明天太阳升起的可能性的时候,提出了这个概念。 大家都知道,太阳当然会升起啊!不升起来的概率(或者说观测到不升起来的次数)为0。 等等,那可不一定,至少拉普拉斯不这么认为,他甚至认为日出的前一秒,也不能确定能不能观测到太阳升起。当然,这不是抬杠,仔细想想确实是这个道理,毕竟谁也不知道太阳会不会被一个极小概率的事件毁灭。 那么,这个概率到底是多少?这个概率怎么计算出来既可以满足事实(姑且叫做“事实概率”),又可以满足幻想(姑且叫做“幻想概率”)。答案是:平滑。 比如,从我开始观测,一共是$N=98$次观测,其中有$x_{i}=0, i=no\ sunraise, i\in {sunraise, no\ sunraise }$取$\alpha […]

想把这个写成一个系列,“深度学习算法在写paper时的应用过程——从数据到对比实验结果”,但是填坑太累,先分开写吧,最后如果能完成就整理成系列。 最近有篇关于轴承故障诊断的文章要用到轴承数据,就找到了西储大学这个轴承的公开数据集,关于数据集本身我就不做过多的描述了,主页说的已经很清楚。 数据获取 但是问题来了,这个数据集没有提供压缩文件下载!而是用表格的形式列出的很多数据文件的集合,而且还是.mat文件,也就是MATLAB文件。更不方便的一点是文件名都是数字,果手动下载每个文件,需要1.建立不同采样频率(12k&48k)的文件夹。2.分别下载每个分类下的每个文件。3.对每个文件重新命名。 这可不是个轻松加愉快的事情,本着“需要手工机械重复超过3分钟的工作应该尝试使用自动化脚本实现”这一不知道哪里看来的感觉很有道理的信念,就开始考虑如何自动化实现了。其实最开始思路很简单,程序需要完成至少以下内容: 1.爬取网页。 2.分析网页,获得数据的大分类(Normal&12k&48k)category,每个单个文件在表格中的名称&url(例如IR007_0以及它的地址)filename & url。 3.根据2获取的category建立文件夹,通过url下载,并重命名为filename。 整个脚本实现起来应该不难,第1,2部分只是一个简单的获取网页+内容解析,最具有挑战性的地方在于第3步,因为可能要用多线程下载。灵机一动,多线程下载不是有工具嘛,wget,aria2,不能放着这么好用的工具不用。尤其是aria2,多线程下载就是一个参数的事。因此,第3步改为: 3.根据2获取的category建立文件夹,并将url与filename保存位aria2下载列表格式。 这样,就可以直接用shell脚本来遍历多线程下载了。 分析就到这里,程序也很清晰了,源代码在这里。 其中有一个Python文件和两个shell script,Python文件是用来获取filename,url,等信息并生成aria2下载列表url.txt的,shell script是用来自动化遍历子文件夹下载url.txt的。其中url.txt的格式参见aria2的官方文档引用如下: http://server/file.iso http://mirror/file.iso dir=/iso_images out=file.img http://foo/bar

Traditional CS: CS110: Principles of Computer Systems CS161: Design and Analysis of Algorithms CS106A: Programming Methodology CS97SI: Introduction to Programming Contests CS143: Compilers AI/ML: CS221: Artificial Intelligence: Principles and Techniques […]

基础知识 线性代数 矩阵理论 概率论 随机过程 图论 数值分析 最优化理论 机器学习 数据挖掘 平台 Linux  语言 Python Linux shell 基础库 numpy pandas sklearn matplotlib or seaborn 框架 TensorFlow Pytorch Keras 常用模型 CNN RNN(LSTM) GAN 常用架构(包括transfer […]

突然想起来本科的日子,参加几个社团,没事打打球,在工作室,午后慵懒地靠椅上(中间还垫了个睡枕:-)),喝着咖啡悠闲地写自己想要构建的项目代码,总有学不完的新知识,晚上翻窗户出去吃夜宵,聊天……..真是充实又幸福。 现在每天赶文章,想idea,文献综述,写为了完成任务的代码,做ppt,汇报,教研室-食堂-宿舍循环,接触到的人,圈子不超过20,充实是充实了,但是却没了幸福感,难道以后也是这样吗?果然都说本科是最快乐的时光,一点不假。 Good old days.