Secretly beautiful

My notes to share

论文阅读:Split-CNN

论文阅读: Split-CNN 会议: Asplos 年份: 2019 题目: 作者1: Tian Jin @IBM Thomas J. Watson Research Center 作者2: Seokin Hong @Kyungpook National University 0. 概括 论文提出了Split-CNN,设计了一个 heterogeneous memory manag......

访问google scholar的方法

科学访问google scholar 参考了他人资料,完全出于学习目的: https://blog.csdn.net/qq_38358748/article/details/88994207 上述链接404了… 只好写一点记录了: 租一个主机,vultr可以用百度搜到 租完后登陆shell,运行以下命令获取ss: 123wget --no-check-certificate -O sh......

Install Pytorch on TX1

在TX1上安装PyTorch 参考 https://github.com/andrewadare/jetson-tx2-pytorch ...

编译复习:自底向上语法分析

编译复习:自底向上语法分析 本学期做编译助教,需要复习一下。LR文法分析之前的内容都跳过了,对于自底向上的语法分析内容需要详细复习一下,在此记录 资料:龙书第2版4.5节, 4.6节 一、初步知识 自底向上语法分析本质上是为输入串构造语法分析树的过程 LR文法类是最大的、可以构造相应的移入-归约语法分析器的文法类 当今构造LR语法分析器可以借助自动生成工具 LR(k)文法中的L是自......

MKL使用速记

...

在TVM中写in-place计算

在TVM中写in-place计算 刚刚接触TVM的人都觉得TVM总是将输入Tensor变为输出Tensor,由此只能产生新的Tensor,所以in-place计算不能表示。 比如写一个compute: 123456import tvmimport numpy as npA = tvm.placeholder((32, 32), name="A", dtype="float32")B = tv......
TVM

TVM中如何tune卷积

TVM中如何tune卷积 TVM是针对深度学习而设计的全栈式编译器,以深度学习计算图为输入(可以是tensorflow, mxnet, pytorch, caffe等框架的计算图),经过两层优化:图优化和算子优化,生成底层代码并运行。 本文是关于TVM探究的第一篇记录,但不会详细介绍TVM,只提及与本文内容有关的部分,其余的留作后续做介绍。 TVM的tuner TVM提供一个auto-t......
TVM

搭建github博客方法

搭建github博客的方法 参考这里搭建第一个博客 本人使用的是hexo,主题也是抄来的。由于容易忘记命令,在这里记下常用命令,其实可以用hexo --help看到的 12345hexo new "新的博客题目"hexo g # 生成静态文件hexo d # 部署...

清华python镜像源

清华python包的软件源 地址是这里 将自己的pip设置好一直默认用清华源则用以下命令: 1pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple 需要pip的版本在10.0.0及以上,升级pip的命令为: 1pip install --upgrade pip --user...

Cache的工作方式复习

Cache的工作方式复习 参考资料: 华盛顿大学课程讲义 简单来说就是内存地址的一个非单射满射,对于长度为M的地址,取用其中的X位来索引所在集和,这X位之后的Y位来索引字节,这X位的前(M-X-Y)位来作为标记。最常采用的应该是Set-associative cache,它是Direct-mapped与Fully-associative的折衷。 Cache is a series o......