EndNote样式使用教程
前言EndNote主要针对英文文献,所以并没提供符合中华标准的文献样式,而网上找的样式又不太对。因此这里本人根据中华人民共和国国家标准GB/T7714-2005和江南大学论文要求,制作了可供导入使用的样式。 下载链接如下:江大开题报告样式江大毕业论文样式 使用教程① 将.ens样式文件放入EndNote安装目录下的Styles文件夹。 ② 使用时切换样式即可: ③ 插入文献效果如下: 开题报告: 毕业论文: ④ 若参考文献序号后面空格过长可设置悬挂缩进距离: 注意事项① arxiv期刊,请设置参考类型为Manuscript,以方便样式识别文献类型,并按图中字段完善相应内容。 ② 中文文献,请设置参考类型为中文文献,并填写Secondary Author(与Author一样),以方便样式识别文献类型。 中文文献参考类型设置: 点击「编辑」→「首选项」→「参考文献类型」→「修改参考文献类型」(「Edit」→「Preference」→「Reference Types」→「Modify Reference Types 」) EndNote未使用的文献类型 (Refer ...
历届CCF顶会地点查询
前言鉴于某些参考文献,在引用会议时需要注明开会地点,然而谷歌学术中并不能提供会议地点,这里提供一些常用会议地点的检索网址。 地点查询历届NIPS会议地址:https://www.datalearner.com/conference/nips/历届ECCV会议地址:https://link.springer.com/conference/eccv历届BMVC会议地址:https://britishmachinevisionassociation.github.io/bmvc历届IEEE下的会议地址(如CVPR,ICCV等)请到IEEE下搜论文导出参考文献可得: 这里也提供历届ECCV、ICCV、CVPR、WACV地址:https://www.thecvf.com/?page_id=100 引用查询到地点后手动添加进EndNote题录的关键字即可:
加速pytorch数据读取
介绍prefetch_generator是第三方对原本的DataLoader进行重写的函数包,它将任意生成器转换为后台thead生成器,在并行后台thead中预取多批数据。 如果有一个计算量很大的进程(CPU或GPU),在生成器消耗其他资源(磁盘IO/从数据库加载/如果有未使用的内核,则有更多CPU)的同时迭代处理生成器中的小批量,则这非常有用。 默认情况下,这两个进程将不断等待对方完成。如果让生成器在预取模式下工作,它们将并行工作,可能会节省GPU时间。 安装1pip install prefetch_generator 使用之前加载数据集的正确方式是使用torch.utils.data.DataLoader,现在我们只要利用这个库,新建个DataLoaderX类继承DataLoader并重写__iter__方法即可 12345678# 新建DataLoaderX类from torch.utils.data import DataLoaderfrom prefetch_generator import BackgroundGeneratorclass DataLoaderX(Dat ...
Ubuntu增加swap交换空间
问题描述我在训练模型的过程中,经常跑着中途发生了can not allocate memory的异常,从而使程序中断,其中发现是由于swap空间设置太小,导致交换内存溢出。因此本文介绍增加swap空间的方法。 查看当前系统的swap大小1free -m m 是以兆为单位, g是以GB为单位, 默认是kb 如下图,当前系统只有1G的交换空间: 创建一个swap文件swap交换空间其实就是硬盘上一个特定的文件,只不过这个文件只有内存在读写,比较大些。 12345mkdir /home/roo/swapfilecd /home/roo/swapfilesudo dd if=/dev/zero of=swap bs=1G count=61 mkdir /home/roo/swapfile 是先在/home/roo目录下创建了一个名为swapfile的文件夹cd 进入swapfile文件夹, 然后创建一个大小为61G的,名为swap的空文件。 命令解释: /home/roo/ 可以更换为自己的路径 bs为单位,默认为kb, 如设置为1024,则代表1M count为数量,扩增大小为$cou ...
Pytorch基于Apex的混合精度加速
Pytorch >= 1.6.0pytorch1.6开始官方支持了混合精度训练。使用方法如下: 1234567891011121314151617181920212223242526272829from torch.cuda.amp import autocast as autocast, GradScaler# 创建model,默认是torch.FloatTensormodel = Net().cuda()optimizer = optim.SGD(model.parameters(), ...)# 在训练最开始之前实例化一个GradScaler对象scaler = GradScaler()for epoch in epochs: for input, target in data: optimizer.zero_grad() # 前向过程(model + loss)开启 autocast with autocast(): output = model(input) loss = los ...
Latex中公式过长问题
latex中公式过长通常有以下几个解决方案: (1) 使用amsmath package的split环境,将长公式在\\处断开 1234567\begin{equation}\begin{split}F = \{F_{x} \in F_{c} &: (|S| > |C|) \\&\quad \cap (\text{minPixels} < |S| < \text{maxPixels}) \\&\quad \cap (|S_{\text{conected}}| > |S| - \epsilon) \}\end{split}\end{equation} (2) 利用\!命令,如加在=号、+号两侧进行微调 123\begin{eqnarray}\dot{x}(t)\!=\!\bar ...
Latex控制图片位置
前言在LaTex中,\begin{figure}[~]是图片环境,常用选择项[htbp]是浮动格式: [h] ~ here,当前位置。将图形放置在正文文本中给出该图形环境的地方。如果本页所剩页面不够,这一参数将不起作用。 [t] ~ top,顶部。将图形放置在页面的顶部。 [b] ~ bottom,底部。将图形放置在页面的底部。 [p] ~ page of its own,浮动页。将图形放置在一个允许有浮动对象的页面上。 一般使用[htb]这样的组合,只用[h]是没有用的。这样组合的意思就是LaTex会尽量满足排在前面的浮动格式,就是h-t-b这个顺序,让排版的效果尽量好。 [!h]只是试图放在当前位置。如果页面剩下的部分放不下,还是会跑到下一页的。一般而言,用[!h]选项通常会出现不能正确放置的问题,所以常用[ht]、[htbp]等。这里加感叹号的意思是忽略“美学”标准。 如果你确实需要把图片放在当前位置,不容改变,可以用 \usepackege{float} 宏包的[H]选项。不过如果这样做,出现放不下的问题时需要手工调整。使用格式如下: 12345\usepackage ...
Potplayer添加直播源
具体操作先打开 PotPlayer,右键选择 打开 -> 打开链接 接下来复制直播源到 Potplayer 里,点击确定 这里成功添加了1015个中国区域的电视频道,而且清晰度都在1080P,不仅有央视,还有所有卫视和一些地方台 直播源可以在Github上找到,这里放出链接 点此跳转 里面名叫iptv的仓库收集了全世界将近100个国家的频道,总计达到8000多。并按类别,语言和国家进行了分类。这里图中只展示了一小部分。 比如中国对应的是: 除此以外,还有日本,美国,英国等,需要的可以自行寻找添加。
远程使用tensorboard等可视化工具
有两种设置方法,一种代码设置,一种xshell界面设置 连接SSH1ssh -L 16006:127.0.0.1:6006 -p 31017 username@remote_server_ip 16006:127.0.0.1:6006 代表本机6006端口映射为16006号端口,这两个端口号可以自己设置,不要与其他端口号冲突即可 -p 31017 代表所连远程服务器的端口号,即SSH所用端口号 username@remote_server_ip 代表你的用户名和SSH所连ip地址 在服务器上使用6006端口正常启动tensorboard: 1tensorboard --logdir=xxx --port=6006 —port=6006 代表将端口号指定为6006 由于上一步我们将端口号6006映射到16006,因此在本地浏览器输入地址: 1127.0.0.1:16006 即可远程访问tensorboard 使用Xshell在Windows系统装一个Xshell,在文件->属性->ssh->隧道->添加,类型local,源主机填127.0.0.1或者localho ...
Ubuntu下pip安装numba
错误提醒1ImportError: No module named numba 解决方式注意:在安装numba之前必须安装llvm 1sudo apt-get install llvm-8* 导入环境变量 12alias llvm-config="llvm-config-8"export LLVM_CONFIG="/usr/bin/llvm-config-8" 然后安装llvm 1pip install llvmlite 最后安装numba 1pip install -i https://pypi.tuna.tsinghua.edu.cn/simple numba