less than 1 minute read

official notes (中文)

笔记

  • 用两个linear层的Fasion-MNIST模型来解释relax.
  • call_tir中的一些设计:
    • destination passing: 将输出也作为输入传入, 方便内存管理(让高层库去做内存操作, 底层库就不用涉及内存), 但是和传统的计算图不太匹配(接受输入返回输出). call_tir期望底层实现能和计算图之间看起来更加一致.
    • pure or side-effect free: 只从输入中读取并输出返回结果,不改变程序的其他部分. call_tir希望隐藏可能的分配或对函数的显式写入.
  • dataflow标注计算图的范围, 计算图之外的操作可能包含side-effect.
  • from_dlpackTVM NDArray转换为torch NDArray(零拷贝).
  • IRModule支持注册runtime functin, 也可以与TensorIR混用.
  • 可以使用relax.transform.BindParams绑定参数, 类似于functools.partial.
  • 这节课主要想传达不同的表示形式可能会影响后续优化的难度.

Tags:

Categories:

Updated:

Comments