- [2026/03] flash-linear-attention-npu 项目首次上线。
flash-linear-attention-npu 算子库由天津大学主导开发,是一个面向昇腾架构的高性能线性注意力算子库,对标 Flash-Linear-Attention 项目,旨在为昇腾平台提供高效的线性注意力计算实现。
若您希望快速体验算子的调用和开发过程,请访问如下文档获取简易教程。
若您希望深入体验项目功能并修改算子源码,请访问如下文档获取详细教程。
- 算子调用方式:介绍不同的调用算子方式,方便快速应用于不同的AI业务场景。
关键目录如下,详细目录介绍参见项目目录。
├── cmake # 项目工程编译目录
├── common # 项目公共头文件和公共源码
├── attention # attention类算子
│ ├── flash_attention_score # flash_attention_score算子所有交付件
│ │ ├── CMakeLists.txt # 算子编译配置文件
│ │ ├── docs # 算子说明文档
│ │ ├── examples # 算子使用示例
│ │ ├── op_host # 算子信息库、Tiling、InferShape相关实现目录
│ │ ├── op_kernel # 算子Kernel目录
│ │ └── README.md # 算子说明文档
│ ├── ...
│ └── CMakeLists.txt # 算子编译配置文件
├── docs # 项目文档介绍
├── examples # 端到端算子开发和调用示例
├── experimental # 用户自定义算子存放目录
├── ...
├── moe # moe类算子
├── posembedding # posembedding类算子
├── scripts # 脚本目录,包含自定义算子、Kernel构建相关配置文件
├── tests # 测试工程目录
├── CMakeLists.txt
├── README.md
├── build.sh # 项目工程编译脚本
├── install_deps.sh # 安装依赖包脚本
└── requirements.txt # 本项目需要的第三方依赖包
本项目的部分实现参考了 ops-transformer 仓库,感谢华为 CANN 社区及相关开发团队的开源贡献。