色丁香婷婷五月天综合影院,绯色av色欲AV无码一区,久久精品无码一区二区三区免费,国产 日韩 欧美综合在线

請(qǐng)輸入關(guān)鍵字
搜索
模型庫(kù)
LLaMA-65B
Inference
LLaMA是大模型研究領(lǐng)域內(nèi)最熱門的基座模型,由Meta開(kāi)源。時(shí)下熱點(diǎn)的Vicuna,Koala等模型都是在llama的基礎(chǔ)上訓(xùn)練的。現(xiàn)650億參數(shù)量的LLaMA模型已支持在太初卡上推理使用。
LLaMA-7B
Inference
LLaMA是大模型研究領(lǐng)域內(nèi)最熱門的基座模型,由Meta開(kāi)源。時(shí)下熱點(diǎn)的Vicuna,Koala等模型都是在llama的基礎(chǔ)上訓(xùn)練的?,F(xiàn)70億參數(shù)量的LLaMA模型已支持在太初卡上推理使用。
Baichuan-7B
Inference
Baichuan-7B 是由百川智能開(kāi)發(fā)的一個(gè)開(kāi)源可商用的大規(guī)模預(yù)訓(xùn)練語(yǔ)言模型?;?Transformer 結(jié)構(gòu),在大約 1.2 萬(wàn)億 tokens 上訓(xùn)練的 70 億參數(shù)模型,支持中英雙語(yǔ),上下文窗口長(zhǎng)度為 4096?,F(xiàn)70億參數(shù)量的Baichuan模型已支持在太初卡上推理使用。
Baichuan-13B
Inference
Baichuan-13B 是由百川智能繼 Baichuan-7B 之后開(kāi)發(fā)的包含 130 億參數(shù)的開(kāi)源可商用的大規(guī)模語(yǔ)言模型,在權(quán)威的中文和英文 benchmark 上均取得同尺寸最好的效果。現(xiàn)130億參數(shù)量的Baichuan模型已支持在太初卡上推理使用。
LLM
相關(guān)模型數(shù):
  • LLaMA-65B
    Inference
    LLaMA是大模型研究領(lǐng)域內(nèi)最熱門的基座模型,由Meta開(kāi)源。時(shí)下熱點(diǎn)的Vicuna,Koala等模型都是在llama的基礎(chǔ)上訓(xùn)練的?,F(xiàn)650億參數(shù)量的LLaMA模型已支持在太初卡上推理使用。
  • LLaMA-7B
    Inference
    LLaMA是大模型研究領(lǐng)域內(nèi)最熱門的基座模型,由Meta開(kāi)源。時(shí)下熱點(diǎn)的Vicuna,Koala等模型都是在llama的基礎(chǔ)上訓(xùn)練的?,F(xiàn)70億參數(shù)量的LLaMA模型已支持在太初卡上推理使用。
  • Baichuan-7B
    Inference
    Baichuan-7B 是由百川智能開(kāi)發(fā)的一個(gè)開(kāi)源可商用的大規(guī)模預(yù)訓(xùn)練語(yǔ)言模型?;?Transformer 結(jié)構(gòu),在大約 1.2 萬(wàn)億 tokens 上訓(xùn)練的 70 億參數(shù)模型,支持中英雙語(yǔ),上下文窗口長(zhǎng)度為 4096。現(xiàn)70億參數(shù)量的Baichuan模型已支持在太初卡上推理使用。
  • Baichuan-13B
    Inference
    Baichuan-13B 是由百川智能繼 Baichuan-7B 之后開(kāi)發(fā)的包含 130 億參數(shù)的開(kāi)源可商用的大規(guī)模語(yǔ)言模型,在權(quán)威的中文和英文 benchmark 上均取得同尺寸最好的效果?,F(xiàn)130億參數(shù)量的Baichuan模型已支持在太初卡上推理使用。
  • BLOOM-7B
    Inference
    BLOOM 是一種自回歸大型語(yǔ)言模型 (LLM),經(jīng)過(guò)訓(xùn)練,可使用工業(yè)規(guī)模的計(jì)算資源根據(jù)大量文本數(shù)據(jù)的提示繼續(xù)文本。因此,它能夠以 46 種語(yǔ)言和 13 種編程語(yǔ)言輸出連貫的文本?,F(xiàn)70億參數(shù)量的Bloom模型已支持在太初卡上推理使用。
  • GPT-2-13B
    Inference
    GPT-2(Generative Pre-trained Transformer 2 )是OpenAI于2019年2月創(chuàng)建的大語(yǔ)言模型。GPT-2能夠翻譯文本、回答問(wèn)題、總結(jié)段落,并生成文本輸出?,F(xiàn)130億參數(shù)量的GPT2模型已支持在太初卡上推理使用。
  • GPT-2-13B
    Pretrain
    GPT-2(Generative Pre-trained Transformer 2 )是OpenAI于2019年2月創(chuàng)建的大語(yǔ)言模型。GPT-2能夠翻譯文本、回答問(wèn)題、總結(jié)段落,并生成文本輸出?,F(xiàn)130億參數(shù)量的GPT2模型已支持在太初卡上訓(xùn)練使用。
  • GPT-2-13B
    Finetune
    GPT-2(Generative Pre-trained Transformer 2 )是OpenAI于2019年2月創(chuàng)建的大語(yǔ)言模型。GPT-2能夠翻譯文本、回答問(wèn)題、總結(jié)段落,并生成文本輸出?,F(xiàn)130億參數(shù)量的GPT2模型已支持在太初卡上微調(diào)使用。
  • GPT-NeoX-20B
    Inference
    GPT-NeoX是EleutherAI訓(xùn)練的自回歸大語(yǔ)言模型,該模型在學(xué)術(shù)、工業(yè)和政府實(shí)驗(yàn)室有廣泛應(yīng)用。現(xiàn)200億參數(shù)量的GPT2-NeoX模型已支持在太初卡上推理使用。
多模態(tài)
相關(guān)模型數(shù):
CV
相關(guān)模型數(shù):
  • Resnet50-v1.5
    Pretrain | PyTorch
    ResNet50 v1.5 (Residual Network),是一種特定類型的卷積神經(jīng)網(wǎng)絡(luò) (CNN),常用于計(jì)算機(jī)視覺(jué)領(lǐng)域?,F(xiàn) ResNet50 v1.5 已支持在太初卡訓(xùn)練(基于PyTorch框架)使用。
  • Resnet50-v1.5
    Inference
    ResNet50 v1.5 (Residual Network),是一種特定類型的卷積神經(jīng)網(wǎng)絡(luò) (CNN),常用于計(jì)算機(jī)視覺(jué)領(lǐng)域?,F(xiàn) ResNet50 v1.5 已支持在太初卡推理使用。
  • Resnet50-v1.5
    Pretrain | PaddlePaddle
    ResNet50 v1.5 (Residual Network),是一種特定類型的卷積神經(jīng)網(wǎng)絡(luò) (CNN),常用于計(jì)算機(jī)視覺(jué)領(lǐng)域?,F(xiàn) ResNet50 v1.5 已支持在太初卡訓(xùn)練(基于PaddlePaddle框架)使用。
  • Yolov5-m
    Inference
    Yolo V5建立在先前 YOLO 版本成功的基礎(chǔ)上,并引入了新功能和改進(jìn),能夠快速、準(zhǔn)確且易于使用,Yolo V5已成為各種對(duì)象檢測(cè)、實(shí)例分割和圖像分類任務(wù)的絕佳選擇。現(xiàn)Yolov5m(21.2M 參數(shù))已支持在太初卡推理使用。
  • Yolov5-l6
    Pretrain | PyTorch
    Yolo V5建立在先前 YOLO 版本成功的基礎(chǔ)上,并引入了新功能和改進(jìn),能夠快速、準(zhǔn)確且易于使用,Yolo V5已成為各種對(duì)象檢測(cè)、實(shí)例分割和圖像分類任務(wù)的絕佳選擇。現(xiàn)Yolov5l6(76.8M 參數(shù))已支持在太初卡訓(xùn)練(基于PyTorch框架)使用。
  • Yolov5-l6
    Inference
    Yolo V5建立在先前 YOLO 版本成功的基礎(chǔ)上,并引入了新功能和改進(jìn),能夠快速、準(zhǔn)確且易于使用,Yolo V5已成為各種對(duì)象檢測(cè)、實(shí)例分割和圖像分類任務(wù)的絕佳選擇?,F(xiàn)Yolov5l6(76.8M 參數(shù))已支持在太初卡推理使用。
語(yǔ)音
相關(guān)模型數(shù):
  • Wav2Vec 2.0-base
    Pretrain | PyTorch
    Wav2vec使用自監(jiān)督的訓(xùn)練方式從未標(biāo)記的訓(xùn)練數(shù)據(jù)中訓(xùn)練獲得語(yǔ)音識(shí)別的能力,能夠支持多種語(yǔ)言識(shí)別?,F(xiàn)Wav2Vec-2.0-base已支持在太初卡訓(xùn)練(基于PyTorch框架)使用。
  • Wav2Vec 2.0-base
    Inference
    Wav2vec使用自監(jiān)督的訓(xùn)練方式從未標(biāo)記的訓(xùn)練數(shù)據(jù)中訓(xùn)練獲得語(yǔ)音識(shí)別的能力,能夠支持多種語(yǔ)言識(shí)別。現(xiàn)Wav2Vec-2.0-base已支持在太初卡推理使用。
NLP
相關(guān)模型數(shù):
  • BERT-Base
    Pretrain | PyTorch
    BERT(Bidirectional Encoder Representation from Transformers)是2018年10月由Google AI研究院提出的一種預(yù)訓(xùn)練模型。現(xiàn)BERT-Base已支持在太初卡訓(xùn)練(基于PyTorch框架)使用。
  • BERT-Base
    Inference
    BERT(Bidirectional Encoder Representation from Transformers)是2018年10月由Google AI研究院提出的一種預(yù)訓(xùn)練模型?,F(xiàn)BERT-Base已支持在太初卡推理使用。
抱歉,沒(méi)有找到“xxx”相關(guān)的結(jié)果,請(qǐng)嘗試其他搜索詞

申請(qǐng)?jiān)囉?/h3>

完成下方表格填寫(xiě)后,太初技術(shù)專家會(huì)在審核初步通過(guò)后與您聯(lián)系。如果最終完成審核,您可以訪問(wèn)太初線上環(huán)境體驗(yàn)太初加速卡的性能。

請(qǐng)?zhí)顚?xiě)下表 我們將盡快與您聯(lián)系

完成下方表格填寫(xiě)后,太初技術(shù)專家會(huì)在審核初步通過(guò)后與您聯(lián)系。如果最終完成審核,您可以訪問(wèn)太初線上環(huán)境體驗(yàn)太初加速卡的性能。