衡阳派盒市场营销有限公司

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

使用NVIDIA NeMo定制LLM的過程

jf_pJlTbmA9 ? 來源:NVIDIA ? 作者:NVIDIA ? 2023-07-05 16:30 ? 次閱讀

在過去的幾年里,世代人工智能吸引了公眾的注意力和想象力。從給定的自然語言提示,這些生成模型能夠生成人類質量的結果,從清晰表達的兒童故事到產品原型可視化。

大型語言模型( LLM )是這場革命的中心。 LLM 是一種通用的語言理解器,它將人類知識編纂成法典,可以很容易地應用于許多自然語言和編程語言理解任務,開箱即用。其中包括摘要、翻譯、問題回答以及代碼注釋和完成。

單個基礎語言模型完成許多任務的能力開辟了一個全新的人工智能軟件范式,其中單個基礎模型可以用于滿足公司所有部門的多個下游語言任務。這簡化并降低了人工智能軟件開發、部署和維護的成本。

創建自定義大型語言模型簡介

盡管 LLM 強大且前景光明,但通過針對特定用例的零樣本或少量快照學習,與 LLM 現成的性能仍存在差距。特別是,零樣本學習性能往往很低且不可靠。另一方面,很少有鏡頭學習依賴于找到最佳的離散提示,這是一個不平凡的過程。

如 GPT Understands, Too 中所述,用于解決下游問題的提示模板的微小變化可能會對最終精度產生重大影響。此外,由于提示更大,少鏡頭推理的成本也更高。

已經提出了參數有效的微調技術來解決這個問題。即時學習就是這樣一種技術,它將虛擬提示令牌附加到請求中。這些虛擬令牌是可學習的參數,可以使用標準優化方法進行優化,而 LLM 參數是凍結的。

本文介紹了使用 NVIDIA NeMo 定制 LLM 的過程,這是一個用于訓練、定制和部署基礎模型的通用框架。

什么是 NVIDIA NeMo ?

NVIDIA NeMo 是用于訓練、定制和部署大型基礎模型的通用框架。 NeMo 利用各種并行技術來加速訓練和推理,可以部署在用戶首選云、本地和邊緣系統上的多節點、多 GPU 系統上。要了解更多信息,請參閱 NVIDIA AI Platform Delivers Big Gains for Large Language Models 和 Accelerated Inference for Large Transformer Models Using NVIDIA Triton Inference Server 。

NeMo 生態系統由以下主要組成部分組成:

NVIDIA NeMo service :通過 NVIDIA 管理的服務,為 LLM 的產品化提供快速途徑。開發人員可以利用 LLM 功能快速輕松地開發企業人工智能應用程序,而無需擔心底層基礎設施。您還可以通過云 API網絡游樂場界面體驗最大的語言模型之一 Megatron 530B 。目前處于早期訪問狀態。

NVIDIA NeMo framework :一個端到端的容器化框架,允許開發人員高效地訓練和部署具有數十億和數萬億參數的語言模型,在數千 GPU 秒內提供高訓練效率。 NeMo 框架容器目前位于 open beta 中,可通過 NGC 獲得。

NVIDIA/NeMo :為研究語音人工智能和 NLP (包括 LLM )的研究人員構建的開源對話式人工智能工具包。可通過 GitHub 獲得。

NeMo 模型: NVIDIA 最近開放了源代碼的預訓練 NeMo 框架模型,從 1.3B GPT-3 、 5B GPT-3 和 3B mT5 model 等小型模型到 20B GPT-3 等大型模型。

NVIDIA/FasterTransformer :一個開源工具包,用于通過 GitHub 進行 LLM 的高性能推理。要了解有關如何使用 Faster transformer 部署公共 NeMo 框架模型的更多信息,請參閱 Deploying a 1.3B GPT-3 Model with NVIDIA NeMo Megatron 。

這篇文章解釋了如何使用 NeMo 框架容器通過即時學習技術自定義公共 NeMo 模型。

使用 NeMo 快速學習

Prompt learning 統稱為兩參數高效微調技術,如下所述。有關更多信息,請參閱 Adapting P-Tuning to Solve Non-English Downstream Tasks 。

在提示調諧中,軟提示嵌入被初始化為 2D 矩陣。每個任務都有自己的 2D 嵌入矩陣。任務在訓練或推理過程中不共享任何參數。所有 LLM 參數都被凍結,并且在訓練期間僅更新每個任務的嵌入參數。 NeMo 提示調諧實現基于 The Power of Scale for Parameter-Efficient Prompt Tuning 。

在 p 調諧中, LSTM 模型或“提示編碼器”用于預測虛擬令牌嵌入。 LSTM 參數在 p 調諧開始時被隨機初始化。所有 LLM 參數都被凍結,并且在每個訓練步驟僅更新 LSTM 權重。 LSTM 參數在同時 p 調諧的所有任務之間共享,但 LSTM 模型為每個任務輸出唯一的虛擬令牌嵌入。 NeMo p 調諧實現基于 GPT Understands, Too 。

本例的即時學習使用 NeMo 生態系統的兩個開源組件: NeMo OSS 工具包和公共 NeMo 模型。

GitHub 上的 NeMo Multitask Prompt and P-Tuning 教程詳細介紹了在小型 GPT-3 345M 參數模型上進行提示學習的過程。本教程演示了即時學習的端到端過程:下載和預處理數據、下載模型、訓練即時學習模型,以及在三個不同的應用程序上進行推理。

下面的部分首先瀏覽筆記本,同時總結主要概念。然后,這個筆記本將被擴展到對更大的 NeMo 模型進行即時學習。

先決條件

您可以通過 NeMo Docker 容器體驗 NeMo 。這為 NeMo 的實驗提供了一個自給自足和可再生的環境。 NeMo Multitask Prompt and P-Tuning 教程使用 NeMo 22.09 容器進行了測試,但您可以嘗試相同容器的后續版本。使用以下腳本下載并運行此容器:

docker run  -u $(id -u ${USER}):$(id -g ${USER}) --rm -it --net=host nvcr.io/nvidia/nemo:22.09 bash

然后從容器交互式 bash 環境中啟動 Jupyter 實驗室:

cd /workspace
jupyter lab --ip 0.0.0.0 --allow-root --port=8888

在 Jupyter 實驗室,您可以在/ workspace / NeMo / tutorial / nlp / Multitask _ Pompt _ and _ PTuning.ipynb 下找到 NeMo 示例,包括上述筆記本。

此外,您需要一個 GPU 來處理較小的 5B 和 1.3B GPT-3 模型,需要四個 NVIDIA Ampere architecture 或 NVIDIA Hopper architecture GPU 用于處理 20B 模型,因為它具有四個張量平行度( TP )。

數據準備

筆記本將引導您完成三種不同應用程序的數據收集和預處理過程: Financial PhraseBank dataset 用于情緒分析任務, SQuAD dataset 用于問答任務, Assistant Benchmarking dataset 用于意圖和時段分類任務。

數據集應為. jsonl 格式,其中包含一組 JSON 對象。每個 JSON 對象必須包括字段任務名稱,這是數據示例所對應任務的字符串標識符。每個 JSON 對象還應包括一個或多個字段,這些字段對應于離散文本提示的不同部分。示例見圖 1 。

dataset-NVIDIA-NeMo-prompt-learning.png 圖 1 。 NeMo 即時學習的數據集格式

提示模板

在形成提示時,您應該確定并遵守一個模式。這種模式被稱為 prompt template ,并根據使用情況而變化。情緒分析的示例如下所示。

{
        "taskname": "sentiment",
        "prompt_template": "<|VIRTUAL_PROMPT_0|> {sentence} sentiment:{label}",
        "total_virtual_tokens": 10,
        "virtual_token_splits": [10],
        "truncate_field": None,
        "answer_only_loss": True,
        "answer_field": "label",
    }

提示包含開頭的所有 10 個虛擬標記,然后是要分類的目標句子。接下來是一個文本標記(“sentiment:”),最后是用于訓練的句子的標簽。訓練數據 JSON 對象中的相應字段將映射到此提示模板,以形成完整的訓練示例。 NeMo 支持修剪特定字段以滿足模型令牌長度限制(使用 HuggingFace GPT-2 令牌化器的 NeMo 公共模型通常為 2048 個令牌)。

訓練

默認的 NeMo 提示調優配置在 yaml 文件中提供,可通過 GitHub 上的 NVIDIA/NeMo 獲得。筆記本加載這個 yaml 文件,然后覆蓋訓練選項以適應 345M GPT 模型。 NeMo p 調諧使得能夠同時學習多個任務。 NeMo 利用 PyTorch Lightning 接口,因此只需調用trainer.fit(model)語句即可完成訓練。

推論

最后,一旦經過訓練,模型就可以通過調用model.generate(inputs=test_examples)語句來用于對新樣本的推理(省略“answer_field”)。

快速學習大型模型

筆記本電腦中演示的 345M GPT-3 模型過程可以應用于更大的公共 NeMo GPT-3 型號,最多 1.3B GPT-3 和 5B GPT-3 。這種尺寸的型號只需要一個足夠內存容量的 GPU ,例如 NVIDIA V100 、 NVIDIA A100 和 NVIDIA H100 。下載模型后,替換模型名稱;特別是在以下單元格中:

# Download the model from NGC
gpt_file_name = "megatron_gpt_345m.nemo"
!wget --content-disposition https://api.ngc.nvidia.com/v2/models/nvidia/nemo/megatron_gpt_345m/versions/1/files/megatron_gpt_345m.nemo -

不要從 NGC 下載 345M GPT 模型,而是按照 HuggingFace 上的說明下載 1.3B GPT-3 或 5B GPT-3 模型,然后將gpt_file_name變量指向。 NeMo 模型文件。

請注意,對于 5B 型號,有兩種變體,一種是 TP 度為 1 ( nemo_gpt5B_fp16_tp1.nemo ),另一種是 TP = 2 ( nemo_gpt5B_fp16_tp2.nemo, nemo_gpt5B_bf16_tp2.nemo ) )。筆記本電腦只能支持 TP = 1 變體。在其他一切不變的情況下,您可以端到端執行同一筆記本電腦。

多 – GPU 即時學習

由于 Jupyter 筆記本環境的限制,即時學習筆記本僅支持單次 – GPU 訓練。針對更大的模型利用多 GPU 訓練,具有更高程度的 TP (例如 20B GPT-3 為 4 , 5B GPT-3 為其他變體為 2 )需要使用不同的 NeMo prompt learning script 。此腳本受 config文件 在這里可以找到許多參數的默認值。

模型

本節演示了在作為提示學習筆記本一部分下載并預處理的輔助數據集上使用多個 GPU 對大型模型進行提示學習的過程。

您可以下載 TP = 2 的 5B GPT 型號( nemo_gpt5B_fp16_tp2.nemo) )或 TP = 4 的 20B GPT-3 型號。請注意,這些模型存儲在中。 NeMo 壓縮存檔。要大幅加快模型加載速度,請提前解壓縮模型,并在 NeMo 配置中使用此解壓縮的文件夾。使用以下腳本:

tar -xvf nemo_gpt5B_fp16_tp2.nemo -C nemo_gpt5B_fp16_tp2.nemo.extracted

然后使用nemo_gpt5B_fp16_tp2.nemo.extracted NeMo 中提取的目錄nemo_gpt5B_fp16_tp2.nemo.extracted。

配置

適用于輔助數據集(意圖和插槽檢測應用程序)的配置文件如下所示:

name: megatron_virtual_prompt_gpt

trainer:
  devices: 2
  accelerator: gpu
  num_nodes: 1
  precision: 16
  logger: False # logger provided by exp_manager
  enable_checkpointing: False
  replace_sampler_ddp: False
  max_epochs: 25 # min 25 recommended
  max_steps: -1 # consumed_samples = global_step * micro_batch_size * data_parallel_size * accumulate_grad_batches
  log_every_n_steps: 10 # frequency with which training steps are logged 
  val_check_interval: 1.0 # If is an int n > 1, will run val every n training steps, if a float 0.0 - 1.0 will run val every epoch fraction, e.g. 0.25 will run val every quarter epoch
  gradient_clip_val: 1.0
  resume_from_checkpoint: null # The path to a checkpoint file to continue the training, restores the whole state including the epoch, step, LR schedulers, apex, etc.
  benchmark: False


exp_manager:
  explicit_log_dir: null
  exp_dir: null
  name: ${name}
  create_wandb_logger: False
  wandb_logger_kwargs:
    project: null
    name: null
  resume_if_exists: True
  resume_ignore_no_checkpoint: True
  create_checkpoint_callback: True
  checkpoint_callback_params:
    monitor: val_loss
    save_top_k: 2
    mode: min
    save_nemo_on_train_end: False # Should be false, correct prompt learning model file is saved at model.nemo_path set below, 
    filename: 'megatron_gpt_prompt_tune--{val_loss:.3f}-{step}'
    model_parallel_size: ${model.tensor_model_parallel_size}
    save_best_model: True

model:
  seed: 1234
  nemo_path: ${name}.nemo # .nemo filename/absolute path to where the virtual prompt model parameters will be saved
  virtual_prompt_style: 'p-tuning' # one of 'prompt-tuning', 'p-tuning', or 'inference'
  tensor_model_parallel_size: 1 # intra-layer model parallelism
  pipeline_model_parallel_size: 1 # inter-layer model parallelism
  global_batch_size: 8
  micro_batch_size: 4

  restore_path: null # Path to an existing p-tuned/prompt tuned .nemo model you wish to add new tasks to or run inference with
  language_model_path: ??? # Path to the GPT language model .nemo file, always required
  save_nemo_on_validation_end: True # Saves an inference ready .nemo file every time a checkpoint is saved during training. 
  existing_tasks: [] # List of tasks the model has already been p-tuned/prompt-tuned for, needed when a restore path is given
  new_tasks: ['intent_and_slot'] # List of new tasknames to be prompt-tuned
  


  ## Sequence Parallelism
  # Makes tensor parallelism more memory efficient for LLMs (20B+) by parallelizing layer norms and dropout sequentially
  # See Reducing Activation Recomputation in Large Transformer Models: https://arxiv.org/abs/2205.05198 for more details.
  sequence_parallel: False

  ## Activation Checkpoint 
  activations_checkpoint_granularity: null # 'selective' or 'full' 
  activations_checkpoint_method: null # 'uniform', 'block', not used with 'selective'
  # 'uniform' divides the total number of transformer layers and checkpoints the input activation
  # of each chunk at the specified granularity
  # 'block' checkpoints the specified number of layers per pipeline stage at the specified granularity
  activations_checkpoint_num_layers: null # not used with 'selective'

  task_templates: # Add more/replace tasks as needed, these are just examples
  - taskname: "intent_and_slot"    
    prompt_template: "<|VIRTUAL_PROMPT_0|>Predict intent and slot: {utterance} nLabel:{label}"
    total_virtual_tokens: 10
    virtual_token_splits: [10]
    truncate_field: null
    answer_only_loss: False
    "answer_field": "label"


  prompt_tuning: # Prompt tunin specific params
    new_prompt_init_methods: ['text'] # List of 'text' or 'random', should correspond to tasks listed in new tasks
    new_prompt_init_text: ['some init text goes here'] # some init text if init method is text, or None if init method is random

  p_tuning: # P-tuning specific params
    encoder_type: "tpmlp" # ['tpmlp', 'lstm', 'biglstm', 'mlp'] 
    dropout: 0.0
    num_layers: 2  # number of layers for MLP or LSTM layers. Note, it has no effect for tpmlp currently as it always assumes it is two layers.
    encoder_hidden: 2048 # encoder hidden for biglstm and tpmlp
    init_std: 0.023  # init std for tpmlp layers

  data:
    train_ds: ???
    validation_ds: ???
    add_eos: True
    shuffle: True
    num_workers: 8
    pin_memory: True
    train_cache_data_path: null  # the path to the train cache data 
    validation_cache_data_path: null  # the path to the validation cache data 
    test_cache_data_path: null  # the path to the test cache data 
    load_cache: False  # whether to load from the cache data


  optim:
    name: fused_adam
    lr: 1e-4
    weight_decay: 0.01 
    betas: 
    - 0.9
    - 0.98
    sched:
      name: CosineAnnealing
      warmup_steps: 50
      min_lr: 0.0 # min_lr must be 0.0 for prompt learning when pipeline parallel > 1
      constant_steps: 0 # Constant steps should also be 0 when min_lr=0
      monitor: val_loss
      reduce_on_plateau: false

得益于 yaml 文本格式和注釋,大多數超參數都是不言自明的。使用 Jupyter 實驗室界面,創建一個包含此內容的文件,并將其保存在/workspace/nemo/examples/nlp/language_modeling/conf/megatron_gpt_prompt_learning_intent_n_slot.yaml下。

config文件中最重要的是如下所示的提示模板:

 prompt_template: "<|VIRTUAL_PROMPT_0|>Predict intent and slot: {utterance} nLabel:{label}"
    total_virtual_tokens: 10
    virtual_token_splits: [10]
    truncate_field: null

這里, 10 個虛擬提示令牌與一些永久文本標記一起使用。

訓練

要開始培訓,請在 Jupyter 實驗室界面中打開一個終端窗口(文件→ 新建→ 終端)。然后發出 bash 命令:

python /workspace/nemo/examples/nlp/language_modeling/megatron_gpt_prompt_learning.py 
    	--config-name=megatron_gpt_prompt_learning_intent_n_slot.yaml 
    	trainer.devices=2 
    	trainer.num_nodes=1 
    	trainer.max_epochs=25 
    	trainer.precision=bf16 
    	model.language_model_path=/workspace/nemo/tutorials/nlp/nemo-megatron-gpt-5B/nemo_gpt5B_fp16_tp2.nemo.extracted 
    	model.nemo_path=/workspace/nemo/examples/nlp/language_modeling/intent_n_slot.nemo 
    	model.tensor_model_parallel_size=2 
    	model.pipeline_model_parallel_size=1 
    	model.global_batch_size=16 
    	model.micro_batch_size=1 
    	model.optim.lr=1e-4 
    	model.data.train_ds=[/workspace/nemo/tutorials/nlp/data/assistant/assistant_train.jsonl] 
    	model.data.validation_ds=[/workspace/nemo/tutorials/nlp/data/assistant/assistant_val.jsonl]

請注意以下內容:

對于 5B GPT 模型( nemo_gpt5B_fp16_tp2.nemo) ),model.tensor_model_parallel_size應設置為 2 ,對于 20B GPT-3 模型,應設置為 4

trainer.devices應設置為 TP 值的倍數。如果 5B 模型為 4 ,則將有兩個數據并行工作者,每個工作者有兩個 GPU

model.language_model_path應設置為模型提取目錄的絕對路徑

model.data.train_ds、model.data.validation_ds應設置為列車位置和驗證數據

推論

最后,經過訓練后,使用以下腳本在 NeMo 中進行推理:

python /workspace/nemo/examples/nlp/language_modeling/megatron_gpt_prompt_learning_eval.py 
            virtual_prompt_model_file=/workspace/nemo/examples/nlp/language_modeling/intent_n_slot.nemo 
            gpt_model_file=/workspace/nemo/tutorials/nlp/nemo-megatron-gpt-5B/nemo_gpt5B_fp16_tp2.nemo.extracted  
            inference.greedy=True 
            inference.add_BOS=False 
            inference.tokens_to_generate=128 
            trainer.devices=2 
            trainer.num_nodes=1 
            tensor_model_parallel_size=2 
            pipeline_model_parallel_size=1 
            data_paths=["/workspace/nemo/tutorials/nlp/data/assistant/assistant_test.jsonl"] 
            pred_file_path="test-results.txt"

請注意以下內容:

對于 5B GPT 模型( nemo_gpt5B_fp16_tp2.nemo) ),model.tensor_model_parallel_size應設置為 2 ,對于 20B GPT-3 模型,應設置為 4

trainer.devices應設置為等于 TP 值(如上)

pred_file_path是記錄測試結果的文件,每個測試樣本一行

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • NVIDIA
    +關注

    關注

    14

    文章

    5076

    瀏覽量

    103728
  • AI
    AI
    +關注

    關注

    87

    文章

    31536

    瀏覽量

    270344
  • 語言模型
    +關注

    關注

    0

    文章

    538

    瀏覽量

    10342
  • LLM
    LLM
    +關注

    關注

    0

    文章

    299

    瀏覽量

    400
收藏 人收藏

    評論

    相關推薦

    【比特熊充電棧】實戰演練構建LLM對話引擎

    大模型時代,安全問題不容小覷。但如果把大模型比作孫悟空,那 NVIDIA NeMo Guardrails 就是“安全護欄”,可以輕松的為基于 LLM 的對話系統添加可編程護欄,來避免大語言模型輸出
    的頭像 發表于 09-19 13:40 ?1081次閱讀
    【比特熊充電棧】實戰演練構建<b class='flag-5'>LLM</b>對話引擎

    NVIDIA 推出大型語言模型云服務以推進 AI 和數字生物學的發展

    NVIDIA NeMo 大型語言模型(LLM)服務幫助開發者定制大規模語言模型;NVIDIA BioNeMo 服務幫助研究人員生成和預測分子
    發表于 09-21 15:24 ?580次閱讀
    <b class='flag-5'>NVIDIA</b> 推出大型語言模型云服務以推進 AI 和數字生物學的發展

    用Riva和NeMo Megatron構建語音AI

      NVIDIA 宣布了新的更新 NVIDIA NeMo Megatron ,這是一個培訓大型語言模型( LLM )的框架,其參數高達數萬億。基于 Megatron paper 的創新
    的頭像 發表于 03-31 15:49 ?1608次閱讀

    NVIDIA通過NeMo 1.0加速會話AI從研究到生產過程

      NVIDIA 發布了世界級的語音識別功能,可為企業生成高精度的轉錄本, NeMo 1.0 包括用于民主化和加速對話人工智能研究的最新語音和語言模型。
    的頭像 發表于 04-01 15:30 ?1268次閱讀

    NVIDIA發布Riva語音AI和大型LLM軟件

      它包括Megatron方面的進步,這是一個由 NVIDIA 研究人員領導的開源項目,旨在開發有效培訓法學碩士的技術。企業可以使用 NeMo Megatron 定制 LLM ,如 M
    的頭像 發表于 04-01 16:27 ?1.1w次閱讀

    NVIDIA NeMo生成高質量的語音識別標簽

      NVIDIA NeMo 提供了可重用的神經模塊,使得創建新的神經網絡架構變得容易,包括 ASR 的預構建模塊和現成模型。借助 NVIDIA NeMo 的強大功能,您可以從預訓練語音
    的頭像 發表于 04-27 09:15 ?1658次閱讀
    用<b class='flag-5'>NVIDIA</b> <b class='flag-5'>NeMo</b>生成高質量的語音識別標簽

    NVIDIA NeMo開源框架概述、優勢及功能特性

    NVIDIA NeMo 是一款供開發者構建和訓練先進的對話式 AI 模型的開源框架。
    的頭像 發表于 07-19 10:53 ?2989次閱讀

    NVIDIANeMo Megatron 框架進行更新 將訓練速度提高 30%

    隨著大型語言模型(LLM)的規模和復雜性日益增加,NVIDIA 于今日宣布對 NeMo Megatron 框架進行更新,將訓練速度提高 30%。
    的頭像 發表于 07-30 08:59 ?2019次閱讀

    NVIDIA NeMo最新語言模型服務幫助開發者定制大規模語言模型

    NVIDIA NeMo 大型語言模型(LLM)服務幫助開發者定制大規模語言模型;NVIDIA BioNeMo 服務幫助研究人員生成和預測分子
    發表于 09-22 10:42 ?946次閱讀

    NVIDIA AI平臺為大型語言模型帶來巨大收益

    隨著大型語言模型( LLM )的規模和復雜性不斷增長, NVIDIA 今天宣布更新 NeMo Megatron 框架,提供高達 30% 的訓練速度。
    的頭像 發表于 10-10 15:39 ?930次閱讀
    <b class='flag-5'>NVIDIA</b> AI平臺為大型語言模型帶來巨大收益

    GTC 2023主題直播:NVIDIA Nemo構建定制的語言文本轉文本

    NVIDIA Nemo用于構建定制的語言文本轉文本,客戶可以引入自己的模型,或從Nemo涵蓋了GPT-8、GPT-43到GPT-530等數十億參數的從創建專有模型到運營,
    的頭像 發表于 03-22 11:22 ?810次閱讀
    GTC 2023主題直播:<b class='flag-5'>NVIDIA</b> <b class='flag-5'>Nemo</b>構建<b class='flag-5'>定制</b>的語言文本轉文本

    Snowflake 攜手 NVIDIA 助力企業在數據云端利用數據實現生成式 AI

    NVIDIA NeMo 與 Snowflake 的結合,使企業能夠在 Snowflake 數據云中使用自己的專有數據來安全地構建定制化大語言模型 Snowflake 峰會—2023 年 6 月 26
    的頭像 發表于 06-27 21:10 ?507次閱讀
    Snowflake 攜手 <b class='flag-5'>NVIDIA</b> 助力企業在數據云端利用數據實現生成式 AI

    現已公開發布!歡迎使用 NVIDIA TensorRT-LLM 優化大語言模型推理

    能。該開源程序庫現已作為 NVIDIA NeMo 框架的一部分,在 /NVIDIA/TensorRT-LLM GitHub 資源庫中免費提供。 大語言模型徹底改變了人工智能領域,并創造
    的頭像 發表于 10-27 20:05 ?1053次閱讀
    現已公開發布!歡迎使用 <b class='flag-5'>NVIDIA</b> TensorRT-<b class='flag-5'>LLM</b> 優化大語言模型推理

    NVIDIA AI Foundation Models:使用生產就緒型 LLM 構建自定義企業聊天機器人和智能副駕

    ? 系列基礎模型是一套功能強大的全新工具,可用于為企業構建生產就緒生成式 AI 應用,從而推動從客服 AI 聊天機器人到尖端 AI 產品的各種創新。 這些新的基礎模型現已加入? NVIDIA NeMo 。這個端到端框架用于構建、自定義和部署專為企業
    的頭像 發表于 11-17 21:35 ?943次閱讀
    <b class='flag-5'>NVIDIA</b> AI Foundation Models:使用生產就緒型 <b class='flag-5'>LLM</b> 構建自定義企業聊天機器人和智能副駕

    NVIDIA助力企業創建定制AI應用

    NVIDIA 近日宣布與眾多技術領導者一同使用最新NVIDIA NIM Agent Blueprint以及NVIDIA NeMoNVIDIA
    的頭像 發表于 11-20 09:12 ?423次閱讀
    广东百家乐网| 澳门百家乐游戏说明书| 新思维百家乐投注法| 免水百家乐的玩法技巧和规则 | 百家乐官网输一押二| 我的做生意财位| 新濠百家乐娱乐城| 雷州市| 百家乐官网百战百胜| 澳门百家乐官网大家乐眼| 康莱德百家乐官网的玩法技巧和规则| 百家乐官网和的打法| 百家乐规律打| 百家乐官网什么叫缆| 百家乐官网真人现场| 威尼斯人娱乐城是波音| 关于百家乐官网概率的书| 百家乐玩法的技巧| 大发888wf娱乐场下载| 职业赌百家乐官网技巧| 代理百家乐最多占成| 明升国际网址| 女神百家乐官网的玩法技巧和规则 | 鹤庆县| 罗盘24层| 大发888 yule| 至尊百家乐官网娱乐场开户注册| 百家乐策略介绍| 百家乐官网最新庄闲投注法| 真人百家乐对决| 彩会百家乐官网游戏| 百家乐电子路单破解| 盈丰国际| 百家乐庄家抽水| 六合彩网页| 百家乐官网统计软件| 德州扑克中文版| 百家乐官网专业赌| bet365维护| 百家乐从哪而来| 杂多县|