파이토치 기본 Attention 보다 빠르다는
Flash Attention 2를 윈도우에서 실행해 보는 중이다.
시작
여기서 제공하는 모듈을 사용해 봤다.
https://github.com/bdashore3/flash-attention/releases
버전을 맞춰야 되는데
flash_attn-2.4.1+cu121torch2.1cxx11abiFALSE-cp311-cp311-win_amd64.whl
이 아이를 다운받아봤다.
cuda 도 12.1으로 변경
환경변수에서 위치 변경
CUDA_PATH = C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.1
그리고 Torch 도 버전 맞춰서 다시 설치
pip install torch==2.1.0 torchvision==0.16.0 torchaudio==2.1.0 --index-url https://download.pytorch.org/whl/cu121
그리고 설치 실행
python -m pip install .\flash_attn-2.4.1+cu121torch2.1cxx11abiFALSE-cp311-cp311-win_amd64.whl
설치 완료되면
이 예시에서 이미지를 markdown 형태로 정리해 달라고 한 결과
https://devmeta.tistory.com/100
<|user|>
<|image_1|>
이미지 안에 있는 표를 markdown 형태로 정리해줘.<|end|>
<|assistant|>
The image contains a table with information about a company named "SK 이너 네이션" which is a subsidiary of SK E&S. Below is the markdown format of the table:
'Python' 카테고리의 다른 글
WSL 사용해서 윈도우(VSCODE)에 Transformer 학습 셋팅 하기 (0) | 2024.07.12 |
---|---|
윈도우에서 make 실행하기 (0) | 2024.05.09 |