From 8432e9d5dc8d080535243467f8d380271e8d9489 Mon Sep 17 00:00:00 2001 From: YellowRoseCx <80486540+YellowRoseCx@users.noreply.github.com> Date: Sun, 9 Jul 2023 16:55:30 -0500 Subject: [PATCH] Update Makefile --- Makefile | 18 +++++++++--------- 1 file changed, 9 insertions(+), 9 deletions(-) diff --git a/Makefile b/Makefile index b21c6caf795f5..b5697b9bd291b 100644 --- a/Makefile +++ b/Makefile @@ -178,9 +178,9 @@ ifdef LLAMA_HIPBLAS CC := $(ROCM_PATH)/llvm/bin/clang CXX := $(ROCM_PATH)/llvm/bin/clang++ GPU_TARGETS = gfx803 gfx900 gfx906 gfx908 gfx90a gfx1030 gfx1100 - LLAMA_CUDA_DMMV_X ?= 256 - LLAMA_CUDA_DMMV_Y ?= 2 - + LLAMA_CUDA_DMMV_X ?= 64 + LLAMA_CUDA_MMV_Y ?= 2 + LLAMA_CUDA_FORCE_DMMV = true CFLAGS += -DGGML_USE_HIPBLAS -DGGML_USE_CUBLAS $(shell $(ROCM_PATH)/bin/hipconfig -C) CXXFLAGS += -DGGML_USE_HIPBLAS -DGGML_USE_CUBLAS $(shell $(ROCM_PATH)/bin/hipconfig -C) LDFLAGS += -L/opt/rocm/lib -Wl,-rpath=$(ROCM_PATH)/lib -lhipblas -lamdhip64 @@ -190,14 +190,17 @@ ifdef LLAMA_CUDA_DMMV_X CXXFLAGS += -DGGML_CUDA_DMMV_X=$(LLAMA_CUDA_DMMV_X) else CXXFLAGS += -DGGML_CUDA_DMMV_X=32 -endif # LLAMA_CUDA_DMMV_X +endif +ifeq ($(LLAMA_CUDA_FORCE_DMMV), true) + CXXFLAGS += -DGGML_CUDA_FORCE_DMMV +endif ifdef LLAMA_CUDA_MMV_Y CXXFLAGS += -DGGML_CUDA_MMV_Y=$(LLAMA_CUDA_MMV_Y) else ifdef LLAMA_CUDA_DMMV_Y CXXFLAGS += -DGGML_CUDA_MMV_Y=$(LLAMA_CUDA_DMMV_Y) # for backwards compatibility else CXXFLAGS += -DGGML_CUDA_MMV_Y=1 -endif # LLAMA_CUDA_MMV_Y +endif ifdef LLAMA_CUDA_KQUANTS_ITER CXXFLAGS += -DK_QUANTS_PER_ITERATION=$(LLAMA_CUDA_KQUANTS_ITER) @@ -205,10 +208,7 @@ else CXXFLAGS += -DK_QUANTS_PER_ITERATION=2 endif -ggml-cuda.o: CXXFLAGS += $(addprefix --offload-arch=,$(GPU_TARGETS)) \ - -DGGML_CUDA_DMMV_X=$(LLAMA_CUDA_DMMV_X) \ - -DGGML_CUDA_MMV_Y=$(LLAMA_CUDA_DMMV_Y) \ - -DGGML_CUDA_FORCE_DMMV +ggml-cuda.o: CXXFLAGS += $(addprefix --offload-arch=,$(GPU_TARGETS)) # DGGML_CUDA_DMMV_F16 does not currently work with AMD.