教程(chaos)# 阅读 MLC 教程。 导航 TVM 基础 TVM 准备 安装运行环境 便捷安装 关于 tvm_book 库 安装的 FAQs 自动调优 查看模型 其他 TVM 入门 Relay 神经网络推理 张量程序抽象 TE (Tensor Expression) 实现矩阵乘法 端到端模型执行 PackedFunc 全局函数 Python 调用 C++ 接口 C++ 调用 Python API convert 函数 Hook Python 函数作为 Extern PyTorch 调用 TVM 接口 与机器学习框架的整合 通过 Builder 构造 IRModule 张量表达式 张量形状符号 矩阵运算 张量形状 条件表达式 填充运算 张量内积 2D 卷积 TVM 变换 变换概述 TVM Pass Infra 函数级 Pass 模块级 Pass TVM Pass Instrument 简化推理 定制 Pass 量化(chaos) 分析 TVM 自动量化结果 部分量化 TVM 自动量化过程剖析 PyTorch 模型翻译为 relay 模型 resnet18 算子融合 注解 resnet18 模型 测试自动量化 乘法算子的右操作数不是常量 跳过卷积 stop_quantize batch_flatten batch_matmul calibration_dataset fake-quantization-to-integer canonicalizations Relay 手册 快速了解 Relay Relay 变量 Relay 函数 Relay 模块 GraphExecutorCodegen 回调 Relay 全局变量 Relay 常量 Relay 元组 Relay 条件表达 Relay let 绑定 合并复合 Relay 算子 TVM Relay 构建模块 tvm.relay.create_executor Relay 变换 Relay 模块级 Pass Relay 函数级 Pass Relay Sequential pass Relay PrintIR Relay Pass Instrument 测试 Pass 算子融合测试 注解区域 菱形区域 区域合并 合并编译器区域 菱形计算图 if-else 测试 合并计算图示例 注解目标设备 注解 DNNL 注解多后端设备 read & write tuple composite_function double_target different_target multiple_runs ends_with_tuple 注解目标-其他 VTA 教程 VTA 配置 VTA 多环境管理 VTA 指令集 VTA 运行时数组 VTA save/store 输出命令 VTA padded load VTA GEMM VTA ALU RELU on ALU shift and scale on ALU VTA 算子 通用矩阵乘法(VTA) VTA topi.dense VTA topi.conv2d VTA conv2d_transpose VTA group-conv2d 自定义 VTA Graph Pack VTA 模型样例 VTA Graph Pack VTA 模型的算子融合 VTA resnet18 Relax 手册 nn.module MLP Relax 模型 翻译 Relay 程序为 Relax 可视化 测试 Tedd 使用 TEDD 进行可视化 数据流图 调度树 迭代关系图 可视化 Relay 模块 定制解析器 数据集 ImageNet 接口 ImageNet 标签信息 ImageNet 图像信息 测试 ImageNet 分类精度