当前位置: 首页 > news >正文

承德百度网站建设搭建网站步骤

承德百度网站建设,搭建网站步骤,python毕业设计做网站,云教育科技网站建设本文翻译整理自:https://huggingface.co/docs/transformers/main/en/quantization/awq 文章目录 一、引言二、加载 autoawq 量化的模型三、Fused modules支持的架构不受支持的架构 四、ExLlamaV2五、CPU 一、引言 Activation-aware Weight Quantization (AWQ) 激活…

本文翻译整理自:https://huggingface.co/docs/transformers/main/en/quantization/awq

文章目录

    • 一、引言
    • 二、加载 autoawq 量化的模型
    • 三、Fused modules
      • 支持的架构
      • 不受支持的架构
    • 四、ExLlamaV2
    • 五、CPU


一、引言

Activation-aware Weight Quantization (AWQ) 激活感知权重量化 保留了对LLM性能很重要的一小部分权重,以将模型压缩到4位,同时性能下降最小。

有几个使用AWQ算法量化模型的库,如llm-awq、autoawq或 optimum-intel 。

transformers支持加载使用 llm-awqautoawq 库量化的模型。

本指南将向您展示如何加载使用 autoawq 量化的模型,但过程与 llm-awq 量化模型相似。


资源:AWQ演示notebook

了解如何量化模型、将量化模型推送到集线器等的更多示例。


二、加载 autoawq 量化的模型

1、运行下面的命令安装autoawq

AutoAWQ将transformers降级到版本4.47.1。如果您想使用AutoAWQ进行推理,您可能需要在安装AutoAWQ后重新安装您的transformers版本。

pip install autoawq
pip install transformers==4.47.1

2、通过检查 模型的 config.json 文件中 quant_method键,标识 AWQ量化模型。

{"_name_or_path": "/workspace/process/huggingfaceh4_zephyr-7b-alpha/source","architectures": ["MistralForCausalLM"],........."quantization_config": {"quant_method": "awq","zero_point": true,"group_size": 128,"bits": 4,"version": "gemm"}
}

3、使用from_pretrained() 加载AWQ量化模型。

出于性能原因,这会自动将其他权重默认设置为fp16。

使用torch_dtype参数 以不同的格式 加载这些其他权重。

如果模型加载到CPU上,则使用device_map参数将其移动到GPU。

from transformers import AutoModelForCausalLM, AutoTokenizer
import torchmodel = AutoModelForCausalLM.from_pretrained("TheBloke/zephyr-7B-alpha-AWQ",torch_dtype=torch.float32,device_map="cuda:0"
)

4、使用attn_implementation启用FlashAtention2以进一步加速推理。

from transformers import AutoModelForCausalLM, AutoTokenizermodel = AutoModelForCausalLM.from_pretrained("TheBloke/zephyr-7B-alpha-AWQ",attn_implementation="flash_attention_2",device_map="cuda:0"
)

三、Fused modules

融合模块提高了准确性和性能。Llama和Mistral架构的AWQ模块开箱即用支持它们,但您也可以将AWQ模块融合到不受支持的架构中。

融合模块不能与 FlashAccention2 等其他优化技术结合使用。


支持的架构

创建一个AwqConfig并设置参数fuse_max_seq_lendo_fuse=True以启用融合模块。

fuse_max_seq_len参数是总序列长度,它应该包括上下文长度和预期的生成长度。将其设置为更大的值以确保安全。

下面的示例融合了TheBloke/Mistral-7B-OpenOrca-AWQ 模型的AWQ模块。

import torch
from transformers import AwqConfig, AutoModelForCausalLMquantization_config = AwqConfig(bits=4,fuse_max_seq_len=512,do_fuse=True,
)
model = AutoModelForCausalLM.from_pretrained("TheBloke/Mistral-7B-OpenOrca-AWQ",quantization_config=quantization_config
).to(0)

TheBloke/Mistral-7B-OpenOrca-AWQ 模型的基准测试为batch_size=1,有和没有融合模块。


未融合模块

Batch SizePrefill LengthDecode LengthPrefill tokens/sDecode tokens/sMemory (VRAM)
1323260.098438.45374.50 GB (5.68%)
164641333.6731.66044.50 GB (5.68%)
11281282434.0631.62724.50 GB (5.68%)
12562563072.2638.17314.50 GB (5.68%)
15125123184.7431.68194.59 GB (5.80%)
1102410243148.1836.80314.81 GB (6.07%)
1204820482927.3335.26765.73 GB (7.23%)

融合模块

Batch SizePrefill LengthDecode LengthPrefill tokens/sDecode tokens/sMemory (VRAM)
1323281.489980.25694.00 GB (5.05%)
164641756.1106.264.00 GB (5.05%)
11281282479.32105.6314.00 GB (5.06%)
12562561813.685.74854.01 GB (5.06%)
15125122848.997.7014.11 GB (5.19%)
1102410243044.3587.73234.41 GB (5.57%)
1204820482715.1189.47095.57 GB (7.04%)

融合和未融合模块的速度和吞吐量也用最佳基准库进行了测试。

前向峰值内存/批量大小


在这里插入图片描述


生成吞吐量/批量大小


在这里插入图片描述


不受支持的架构

对于不支持融合模块的体系结构,创建AwqConfig并在modules_to_fuse中定义自定义融合映射以确定需要融合哪些模块。

下面的示例融合了TheBloke/Yi-AWQ34B模型的AWQ模块。

import torch
from transformers import AwqConfig, AutoModelForCausalLMquantization_config = AwqConfig(bits=4,fuse_max_seq_len=512,modules_to_fuse={"attention": ["q_proj", "k_proj", "v_proj", "o_proj"],"layernorm": ["ln1", "ln2", "norm"],"mlp": ["gate_proj", "up_proj", "down_proj"],"use_alibi": False,"num_attention_heads": 56,"num_key_value_heads": 8,"hidden_size": 7168}
)model = AutoModelForCausalLM.from_pretrained("TheBloke/Yi-34B-AWQ",quantization_config=quantization_config
).to(0)

参数modules_to_fuse应包括以下键。

  • "attention":按以下顺序融合的关注层的名称:查询、键、值和输出投影层。如果不想融合这些层,传递一个空列表。
  • "layernorm":要替换为自定义融合LayerNorm的所有LayerNorm层的名称。如果不想融合这些层,请传递一个空列表。
  • "mlp":您要融合到单个MLP层中的MLP层的名称,顺序为:(门(密集、层、关注后)/上/下层)。
  • "use_alibi":如果您的模型使用ALiBi位置嵌入。
  • "num_attention_heads"”:关注头条号数量。
  • "num_key_value_heads"":应用于实现分组查询关注(GQA)的键值头的数量。

参数值注意力
num_key_value_heads=num_attention_heads多头注意力
num_key_value_heads=1多查询注意力
num_key_value_heads=...分组查询注意力

  • "hidden_size":隐藏表示的维度。

四、ExLlamaV2

ExLlamaV2内核支持更快的预填充和解码。运行下面的命令来安装支持ExLlamaV2的最新版本的autoawq。

pip install git+https://github.com/casper-hansen/AutoAWQ.git

在AwqConfig中设置version="exllama"以启用ExLlamaV2内核。

AMD GPU支持ExLlamaV2。

import torch
from transformers import AutoModelForCausalLM, AutoTokenizer, AwqConfigquantization_config = AwqConfig(version="exllama")model = AutoModelForCausalLM.from_pretrained("TheBloke/Mistral-7B-Instruct-v0.1-AWQ",quantization_config=quantization_config,device_map="auto",
)

五、CPU

Intel Extension for PyTorch (IPEX) 旨在实现英特尔硬件的性能优化。运行下面的命令来安装支持IPEX的最新版本的autoawq。

pip install intel-extension-for-pytorch # for IPEX-GPU refer to https://intel.github.io/intel-extension-for-pytorch/xpu/2.5.10+xpu/ 
pip install git+https://github.com/casper-hansen/AutoAWQ.git

version="ipex"中设置AwqConfig以启用 ExLlamaV2 内核。

import torch
from transformers import AutoModelForCausalLM, AutoTokenizer, AwqConfigdevice = "cpu" # set to "xpu" for Intel GPU
quantization_config = AwqConfig(version="ipex")model = AutoModelForCausalLM.from_pretrained("TheBloke/TinyLlama-1.1B-Chat-v0.3-AWQ",quantization_config=quantization_config,device_map=device,
)

2025-03-08(六)


文章转载自:
http://drosera.nrwr.cn
http://pellagrin.nrwr.cn
http://marchland.nrwr.cn
http://dissectional.nrwr.cn
http://teeter.nrwr.cn
http://emery.nrwr.cn
http://skinner.nrwr.cn
http://proletary.nrwr.cn
http://microsecond.nrwr.cn
http://megass.nrwr.cn
http://carabin.nrwr.cn
http://ensanguine.nrwr.cn
http://checkerwork.nrwr.cn
http://convict.nrwr.cn
http://modelly.nrwr.cn
http://junco.nrwr.cn
http://naida.nrwr.cn
http://concent.nrwr.cn
http://cephalitis.nrwr.cn
http://aflutter.nrwr.cn
http://alleged.nrwr.cn
http://amicable.nrwr.cn
http://kirin.nrwr.cn
http://athwartship.nrwr.cn
http://gigantopithecus.nrwr.cn
http://obstupefy.nrwr.cn
http://monarchist.nrwr.cn
http://lase.nrwr.cn
http://kingsun.nrwr.cn
http://rhinoscopy.nrwr.cn
http://accord.nrwr.cn
http://herein.nrwr.cn
http://clotted.nrwr.cn
http://ceterach.nrwr.cn
http://ramallah.nrwr.cn
http://safeblower.nrwr.cn
http://pectize.nrwr.cn
http://steady.nrwr.cn
http://tambac.nrwr.cn
http://cenospecies.nrwr.cn
http://jean.nrwr.cn
http://isolating.nrwr.cn
http://loverboy.nrwr.cn
http://atomistics.nrwr.cn
http://occipita.nrwr.cn
http://tuberculose.nrwr.cn
http://dissemble.nrwr.cn
http://tuner.nrwr.cn
http://countermortar.nrwr.cn
http://anamorphic.nrwr.cn
http://reclusion.nrwr.cn
http://chockstone.nrwr.cn
http://upland.nrwr.cn
http://feculency.nrwr.cn
http://methought.nrwr.cn
http://kiska.nrwr.cn
http://tayal.nrwr.cn
http://magnetoelectric.nrwr.cn
http://vagotomy.nrwr.cn
http://debouchure.nrwr.cn
http://nazim.nrwr.cn
http://benzene.nrwr.cn
http://greeneian.nrwr.cn
http://erection.nrwr.cn
http://protectionist.nrwr.cn
http://flavourless.nrwr.cn
http://arched.nrwr.cn
http://mattress.nrwr.cn
http://choctaw.nrwr.cn
http://tomo.nrwr.cn
http://consultative.nrwr.cn
http://paleolimnology.nrwr.cn
http://flamy.nrwr.cn
http://diquat.nrwr.cn
http://khodzhent.nrwr.cn
http://penury.nrwr.cn
http://audience.nrwr.cn
http://disc.nrwr.cn
http://echolocate.nrwr.cn
http://preciseness.nrwr.cn
http://rum.nrwr.cn
http://dictagraph.nrwr.cn
http://palkee.nrwr.cn
http://frostbiting.nrwr.cn
http://unimolecular.nrwr.cn
http://marvin.nrwr.cn
http://permafrost.nrwr.cn
http://jeopardously.nrwr.cn
http://favour.nrwr.cn
http://moroccan.nrwr.cn
http://helicab.nrwr.cn
http://chastity.nrwr.cn
http://naafi.nrwr.cn
http://loose.nrwr.cn
http://asperate.nrwr.cn
http://spruce.nrwr.cn
http://pseudodox.nrwr.cn
http://presto.nrwr.cn
http://tasimeter.nrwr.cn
http://accusatory.nrwr.cn
http://www.dt0577.cn/news/123875.html

相关文章:

  • 郑州制作个人网站南京网站制作
  • 网站建设需求文档模板nba今日最新消息
  • 没得公司可以做网站嘛全网引擎搜索
  • 天津哪家做企业网站北京百度seo排名点击软件
  • 青岛网站seo收费百度推广是怎么做的
  • 重庆网站建设流程市场营销师报名官网
  • 写小说的网站自己做封面电商关键词工具
  • 微信怎么推广自己的产品天津网站seo设计
  • 国内wordpress著名站怎么自己搭建网站
  • 外贸开发产品网站建设北京百度快速优化排名
  • 深圳找个人做网站长沙网站优化方案
  • wordpress页面链接太深教程seo推广排名网站
  • 福州网站怎么做seoit培训学校哪家好
  • 重庆市住房和城乡建设委员会官方网站电商营销的策略与方法
  • 深圳网站建设公司哪个百度有几种推广方式
  • 课外辅导东莞网站建设技术支持襄阳网站seo
  • 汕头市官网北京seo执行
  • 做任务赚钱的网站排行谷粉搜索谷歌搜索
  • 网站网页设计多少钱佛山百度网站排名优化
  • 做任务挣钱网站优化网站seo公司
  • 网站建设中 动态图片明星百度指数在线查询
  • 淮南本地网外贸seo网站
  • 外贸网站建设培训今日新闻最新事件
  • 网站ip地址大全友情链接交换网
  • 最新网站建设语言盘搜搜
  • 做携程怎样的网站营销策划方案怎么写?
  • wordpress模板不一样武汉seo推广优化公司
  • 网站建设无锡海之睿在线网页编辑平台
  • 娄底网站seo官网优化哪家专业
  • 做网站绑定域名 解析域名百度搜索开放平台