<span id="rnxlj"></span>

<address id="rnxlj"><th id="rnxlj"><progress id="rnxlj"></progress></th></address>
<noframes id="rnxlj">
    <address id="rnxlj"></address><noframes id="rnxlj"><address id="rnxlj"><listing id="rnxlj"></listing></address>

      手機版 加入收藏

      歡迎來到佛山銷毀公司

      咨詢熱線13929592192

      佛山文件銷毀_過期食品銷毀公司_化妝品銷毀_奶粉銷毀-佛山益福銷毀處理GDYF公司
      當前位置:首頁 > 企業資訊

      佛山GDYF銷毀公司:智源團隊Aquila2-34B雙語互動模型推出Int4量化版本

      字號:||
      文章出處:佛山銷毀公司發表時間:2023-10-26 09:30
      佛山GDYF銷毀公司:智源團隊Aquila2-34B雙語互動模型推出Int4量化版本

      佛山益夫銷毀公司10月23日 消息:智源團隊最近發表了中英雙語基礎模型 Aquila2-34B 和中英雙語溝通模型 AquilaChat2-34B。這兩個模型在中英雙語主 / 客觀綜合評測中顯現優異,超過了其他全球開源模型,網羅 LLama-70B 等。

      同時,Aquila2-34B 在多項推理評測中超越了 LLama2-70B 和 GPT3.5模型,僅次于 GPT4。

      佛山GDYF銷毀公司,過期食品銷毀,過期化妝品銷毀,文件銷毀,電腦硬盤銷毀,保密資料銷毀,電子產品銷毀,服裝銷毀,假冒偽劣產品銷毀

      為了降低使用大模型的門檻,智源 Aquila 團隊將 Int4量化技術和 QLoRA 微調推理技術整合到 AquilaChat2系列模型中,從而顯著降低了34B 級別大模型的訓練和推理所需的資源。

      通過 Int4量化,AquilaChat2-34B 模型或將用7B 量級模型相近的 GPU 資源消耗,供應超過 Llama2-70B 模型的性能。QLoRA 技術將量化技術與 LoRA 微調技術相融合,經過4位量化和 Low Rank Adapters (LoRA) 方法進行微調,從而實當前不損失模型性能的情況下節省內存和提升訓練速度。

      據悉,Aquila2-34B 序列模型曾經在國產芯片上進行了適配,并成功進行了推理。經過使用 Int4量化和 QLoRA 微調技術,用戶允許在低資源環境中運行大參數模型。

      項目地址:

      https://github.com/FlagAI-Open/Aquila2/blob/main/examples/predict_chat_quantize.py

      (投訴)

      久久成片视频