色丁香婷婷五月天综合影院,绯色av色欲AV无码一区,久久精品无码一区二区三区免费,国产 日韩 欧美综合在线
首頁(yè)
產(chǎn)品技術(shù)
解決方案
開(kāi)發(fā)者
文檔中心
新聞資訊
加入我們
關(guān)于太初
請(qǐng)輸入關(guān)鍵字
語(yǔ)言
China - 簡(jiǎn)體中文
Global - English
搜索
首頁(yè)
產(chǎn)品技術(shù)
解決方案
開(kāi)發(fā)者
文檔中心
新聞資訊
加入我們
關(guān)于太初
China - 簡(jiǎn)體中文
Global - English
模型庫(kù)
申請(qǐng)?jiān)囉?
LLaMA-65B
Inference
LLaMA是大模型研究領(lǐng)域內(nèi)最熱門的基座模型,由Meta開(kāi)源。時(shí)下熱點(diǎn)的Vicuna,Koala等模型都是在llama的基礎(chǔ)上訓(xùn)練的。現(xiàn)650億參數(shù)量的LLaMA模型已支持在太初卡上推理使用。
LLaMA-7B
Inference
LLaMA是大模型研究領(lǐng)域內(nèi)最熱門的基座模型,由Meta開(kāi)源。時(shí)下熱點(diǎn)的Vicuna,Koala等模型都是在llama的基礎(chǔ)上訓(xùn)練的?,F(xiàn)70億參數(shù)量的LLaMA模型已支持在太初卡上推理使用。
Baichuan-7B
Inference
Baichuan-7B 是由百川智能開(kāi)發(fā)的一個(gè)開(kāi)源可商用的大規(guī)模預(yù)訓(xùn)練語(yǔ)言模型?;?Transformer 結(jié)構(gòu),在大約 1.2 萬(wàn)億 tokens 上訓(xùn)練的 70 億參數(shù)模型,支持中英雙語(yǔ),上下文窗口長(zhǎng)度為 4096?,F(xiàn)70億參數(shù)量的Baichuan模型已支持在太初卡上推理使用。
Baichuan-13B
Inference
Baichuan-13B 是由百川智能繼 Baichuan-7B 之后開(kāi)發(fā)的包含 130 億參數(shù)的開(kāi)源可商用的大規(guī)模語(yǔ)言模型,在權(quán)威的中文和英文 benchmark 上均取得同尺寸最好的效果。現(xiàn)130億參數(shù)量的Baichuan模型已支持在太初卡上推理使用。
LLM
多模態(tài)
CV
語(yǔ)音
NLP
LLM
相關(guān)模型數(shù):
LLaMA-65B
Inference
LLaMA是大模型研究領(lǐng)域內(nèi)最熱門的基座模型,由Meta開(kāi)源。時(shí)下熱點(diǎn)的Vicuna,Koala等模型都是在llama的基礎(chǔ)上訓(xùn)練的?,F(xiàn)650億參數(shù)量的LLaMA模型已支持在太初卡上推理使用。
LLaMA-7B
Inference
LLaMA是大模型研究領(lǐng)域內(nèi)最熱門的基座模型,由Meta開(kāi)源。時(shí)下熱點(diǎn)的Vicuna,Koala等模型都是在llama的基礎(chǔ)上訓(xùn)練的?,F(xiàn)70億參數(shù)量的LLaMA模型已支持在太初卡上推理使用。
Baichuan-7B
Inference
Baichuan-7B 是由百川智能開(kāi)發(fā)的一個(gè)開(kāi)源可商用的大規(guī)模預(yù)訓(xùn)練語(yǔ)言模型?;?Transformer 結(jié)構(gòu),在大約 1.2 萬(wàn)億 tokens 上訓(xùn)練的 70 億參數(shù)模型,支持中英雙語(yǔ),上下文窗口長(zhǎng)度為 4096。現(xiàn)70億參數(shù)量的Baichuan模型已支持在太初卡上推理使用。
Baichuan-13B
Inference
Baichuan-13B 是由百川智能繼 Baichuan-7B 之后開(kāi)發(fā)的包含 130 億參數(shù)的開(kāi)源可商用的大規(guī)模語(yǔ)言模型,在權(quán)威的中文和英文 benchmark 上均取得同尺寸最好的效果?,F(xiàn)130億參數(shù)量的Baichuan模型已支持在太初卡上推理使用。
BLOOM-7B
Inference
BLOOM 是一種自回歸大型語(yǔ)言模型 (LLM),經(jīng)過(guò)訓(xùn)練,可使用工業(yè)規(guī)模的計(jì)算資源根據(jù)大量文本數(shù)據(jù)的提示繼續(xù)文本。因此,它能夠以 46 種語(yǔ)言和 13 種編程語(yǔ)言輸出連貫的文本?,F(xiàn)70億參數(shù)量的Bloom模型已支持在太初卡上推理使用。
GPT-2-13B
Inference
GPT-2(Generative Pre-trained Transformer 2 )是OpenAI于2019年2月創(chuàng)建的大語(yǔ)言模型。GPT-2能夠翻譯文本、回答問(wèn)題、總結(jié)段落,并生成文本輸出?,F(xiàn)130億參數(shù)量的GPT2模型已支持在太初卡上推理使用。
GPT-2-13B
Pretrain
GPT-2(Generative Pre-trained Transformer 2 )是OpenAI于2019年2月創(chuàng)建的大語(yǔ)言模型。GPT-2能夠翻譯文本、回答問(wèn)題、總結(jié)段落,并生成文本輸出?,F(xiàn)130億參數(shù)量的GPT2模型已支持在太初卡上訓(xùn)練使用。
GPT-2-13B
Finetune
GPT-2(Generative Pre-trained Transformer 2 )是OpenAI于2019年2月創(chuàng)建的大語(yǔ)言模型。GPT-2能夠翻譯文本、回答問(wèn)題、總結(jié)段落,并生成文本輸出?,F(xiàn)130億參數(shù)量的GPT2模型已支持在太初卡上微調(diào)使用。
GPT-NeoX-20B
Inference
GPT-NeoX是EleutherAI訓(xùn)練的自回歸大語(yǔ)言模型,該模型在學(xué)術(shù)、工業(yè)和政府實(shí)驗(yàn)室有廣泛應(yīng)用。現(xiàn)200億參數(shù)量的GPT2-NeoX模型已支持在太初卡上推理使用。
多模態(tài)
相關(guān)模型數(shù):
CV
相關(guān)模型數(shù):
Resnet50-v1.5
Pretrain | PyTorch
ResNet50 v1.5 (Residual Network),是一種特定類型的卷積神經(jīng)網(wǎng)絡(luò) (CNN),常用于計(jì)算機(jī)視覺(jué)領(lǐng)域?,F(xiàn) ResNet50 v1.5 已支持在太初卡訓(xùn)練(基于PyTorch框架)使用。
Resnet50-v1.5
Inference
ResNet50 v1.5 (Residual Network),是一種特定類型的卷積神經(jīng)網(wǎng)絡(luò) (CNN),常用于計(jì)算機(jī)視覺(jué)領(lǐng)域?,F(xiàn) ResNet50 v1.5 已支持在太初卡推理使用。
Resnet50-v1.5
Pretrain | PaddlePaddle
ResNet50 v1.5 (Residual Network),是一種特定類型的卷積神經(jīng)網(wǎng)絡(luò) (CNN),常用于計(jì)算機(jī)視覺(jué)領(lǐng)域?,F(xiàn) ResNet50 v1.5 已支持在太初卡訓(xùn)練(基于PaddlePaddle框架)使用。
Yolov5-m
Inference
Yolo V5建立在先前 YOLO 版本成功的基礎(chǔ)上,并引入了新功能和改進(jìn),能夠快速、準(zhǔn)確且易于使用,Yolo V5已成為各種對(duì)象檢測(cè)、實(shí)例分割和圖像分類任務(wù)的絕佳選擇。現(xiàn)Yolov5m(21.2M 參數(shù))已支持在太初卡推理使用。
Yolov5-l6
Pretrain | PyTorch
Yolo V5建立在先前 YOLO 版本成功的基礎(chǔ)上,并引入了新功能和改進(jìn),能夠快速、準(zhǔn)確且易于使用,Yolo V5已成為各種對(duì)象檢測(cè)、實(shí)例分割和圖像分類任務(wù)的絕佳選擇。現(xiàn)Yolov5l6(76.8M 參數(shù))已支持在太初卡訓(xùn)練(基于PyTorch框架)使用。
Yolov5-l6
Inference
Yolo V5建立在先前 YOLO 版本成功的基礎(chǔ)上,并引入了新功能和改進(jìn),能夠快速、準(zhǔn)確且易于使用,Yolo V5已成為各種對(duì)象檢測(cè)、實(shí)例分割和圖像分類任務(wù)的絕佳選擇?,F(xiàn)Yolov5l6(76.8M 參數(shù))已支持在太初卡推理使用。
語(yǔ)音
相關(guān)模型數(shù):
Wav2Vec 2.0-base
Pretrain | PyTorch
Wav2vec使用自監(jiān)督的訓(xùn)練方式從未標(biāo)記的訓(xùn)練數(shù)據(jù)中訓(xùn)練獲得語(yǔ)音識(shí)別的能力,能夠支持多種語(yǔ)言識(shí)別?,F(xiàn)Wav2Vec-2.0-base已支持在太初卡訓(xùn)練(基于PyTorch框架)使用。
Wav2Vec 2.0-base
Inference
Wav2vec使用自監(jiān)督的訓(xùn)練方式從未標(biāo)記的訓(xùn)練數(shù)據(jù)中訓(xùn)練獲得語(yǔ)音識(shí)別的能力,能夠支持多種語(yǔ)言識(shí)別。現(xiàn)Wav2Vec-2.0-base已支持在太初卡推理使用。
NLP
相關(guān)模型數(shù):
BERT-Base
Pretrain | PyTorch
BERT(Bidirectional Encoder Representation from Transformers)是2018年10月由Google AI研究院提出的一種預(yù)訓(xùn)練模型。現(xiàn)BERT-Base已支持在太初卡訓(xùn)練(基于PyTorch框架)使用。
BERT-Base
Inference
BERT(Bidirectional Encoder Representation from Transformers)是2018年10月由Google AI研究院提出的一種預(yù)訓(xùn)練模型?,F(xiàn)BERT-Base已支持在太初卡推理使用。
抱歉,沒(méi)有找到“xxx”相關(guān)的結(jié)果,請(qǐng)嘗試其他搜索詞
申請(qǐng)?jiān)囉?/h3>
完成下方表格填寫(xiě)后,太初技術(shù)專家會(huì)在審核初步通過(guò)后與您聯(lián)系。如果最終完成審核,您可以訪問(wèn)太初線上環(huán)境體驗(yàn)太初加速卡的性能。
如有其他媒體合作或咨詢,也可以通過(guò)
pr@tecorigin.com
聯(lián)系太初市場(chǎng)商務(wù)團(tuán)隊(duì)
提交成功!
請(qǐng)保持手機(jī)號(hào)碼暢通 我們將盡快與您聯(lián)系
請(qǐng)?zhí)顚?xiě)下表
我們將盡快與您聯(lián)系
請(qǐng)選擇您的行業(yè)
金融
零售
醫(yī)療
餐飲
航天
農(nóng)業(yè)
制造
電信
建筑/工程
智慧城市
智慧交通
科學(xué)計(jì)算
公共部門
消費(fèi)互聯(lián)網(wǎng)
媒體與娛樂(lè)
硬件/半導(dǎo)體
其他
請(qǐng)選擇您的職位
首席信息官
首席財(cái)務(wù)官
首席信息官
首席信息安全官
首席技術(shù)官
顧問(wèn)
產(chǎn)品經(jīng)理
數(shù)據(jù)分析師
數(shù)據(jù)科學(xué)家
金融分析師
開(kāi)發(fā)人員/工程師
IT專家
電影/視頻編輯
游戲玩家
平面設(shè)計(jì)師/動(dòng)畫(huà)師
工業(yè)設(shè)計(jì)師/產(chǎn)品設(shè)計(jì)師
行業(yè)分析師
營(yíng)銷專家
項(xiàng)目經(jīng)理
風(fēng)險(xiǎn)投資
解決方案架構(gòu)師
教授/講師
學(xué)術(shù)研究員
學(xué)生
其他
請(qǐng)選擇申請(qǐng)?jiān)囉迷?/option>
公司業(yè)務(wù)
技術(shù)交流
學(xué)術(shù)研究
個(gè)人興趣
其他
獲取驗(yàn)證碼
用戶協(xié)議
和
隱私條款
立即提交
完成下方表格填寫(xiě)后,太初技術(shù)專家會(huì)在審核初步通過(guò)后與您聯(lián)系。如果最終完成審核,您可以訪問(wèn)太初線上環(huán)境體驗(yàn)太初加速卡的性能。
如有其他媒體合作或咨詢,也可以通過(guò)
pr@tecorigin.com
聯(lián)系太初市場(chǎng)商務(wù)團(tuán)隊(duì)