Skip to content

flashserve/flash-linear-attention-npu

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

749 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

flash-linear-attention-npu

🔥Latest News

  • [2026/03] flash-linear-attention-npu 项目首次上线。

🚀概述

flash-linear-attention-npu 算子库由天津大学主导开发,是一个面向昇腾架构的高性能线性注意力算子库,对标 Flash-Linear-Attention 项目,旨在为昇腾平台提供高效的线性注意力计算实现。

⚡️快速入门

若您希望快速体验算子的调用和开发过程,请访问如下文档获取简易教程。

  • 算子列表:介绍项目提供的全量算子信息,方便快速查询。
  • 环境部署:介绍项目基础环境的搭建,包括软件包和第三方依赖的获取和安装。
  • 算子调用:环境部署后,介绍如何快速调用算子,包括编译执行算子包和UT等。

📖学习教程

若您希望深入体验项目功能并修改算子源码,请访问如下文档获取详细教程。

  • 算子调用方式:介绍不同的调用算子方式,方便快速应用于不同的AI业务场景。

🔍目录结构(TODO)

关键目录如下,详细目录介绍参见项目目录

├── cmake                          # 项目工程编译目录
├── common                         # 项目公共头文件和公共源码
├── attention                      # attention类算子
│   ├── flash_attention_score      # flash_attention_score算子所有交付件
│   │   ├── CMakeLists.txt         # 算子编译配置文件
│   │   ├── docs                   # 算子说明文档
│   │   ├── examples               # 算子使用示例
│   │   ├── op_host                # 算子信息库、Tiling、InferShape相关实现目录
│   │   ├── op_kernel              # 算子Kernel目录
│   │   └── README.md              # 算子说明文档
│   ├── ...
│   └── CMakeLists.txt             # 算子编译配置文件
├── docs                           # 项目文档介绍
├── examples                       # 端到端算子开发和调用示例
├── experimental                   # 用户自定义算子存放目录
├── ...
├── moe                            # moe类算子
├── posembedding                   # posembedding类算子
├── scripts                        # 脚本目录,包含自定义算子、Kernel构建相关配置文件
├── tests                          # 测试工程目录
├── CMakeLists.txt
├── README.md
├── build.sh                       # 项目工程编译脚本
├── install_deps.sh                # 安装依赖包脚本
└── requirements.txt               # 本项目需要的第三方依赖包

📝相关信息

🙏致谢

本项目的部分实现参考了 ops-transformer 仓库,感谢华为 CANN 社区及相关开发团队的开源贡献。

About

No description, website, or topics provided.

Resources

License

Contributing

Security policy

Stars

Watchers

Forks

Packages

 
 
 

Contributors