ele

ele

ele

來羊毛啦,騰訊雲Cloud Studio大羊毛!!!二

更正,經筆者測試,Cloud Studio 高性能基礎版由於某種原因是不支持對外服務的,也就是說默認只能在他的命令行下,進行對話操作。 如下圖: EC48EC26-1A07-4B30-86E6-E3DBAA0D61D2

不能提供 api 服務,但其他機器及 hai 機器經筆者測試均支持

上篇文章來羊毛啦,騰訊雲 Cloud Studio 大羊毛!!! 今天來用騰訊雲 cloud studio 來免費搭建我們的 deepseek r1 大模型,開始

  1. 打開ollama 的模型頁面 image 模型頁面列出了 ollama 所支持的一鍵安裝模型,比如我們需要安裝 deepseek-r1,我們直接點擊這個鏈接就好,就能打開模型的具體頁面,如果沒有合適的,可以在搜索欄輸入模型關鍵詞進行搜索。

  2. 模型的詳情頁面 image 從這裡我們可以看出,現在支持的模型有 1.5b,7b,8b,14b,32b,20b,671b 等,我們需要哪個模型就直接切換就好,如圖

image 我們選擇 32b 這個模型進行安裝,如果沒有列出所有的模型,可以點擊圖示中的查看所有 view all。

  1. 安裝模型 我們複製命令,之後打開 cloud studio 的終端命令框裡輸入命令,進行大模型的安裝及運行,ps 一下,如果只是拉取模型,而不是拉取運行,我們可以用 ollama pull xxx 來運行,ollama 也支持 hf 的模型,但是需要進行轉換,這裡就不做詳細介紹。 ollama run deepseek-r1:32b

image

528FFB03-E1E5-457A-A1DB-699855DB64A7 回車等待下載完成運行。 此時等待的時間長一點,畢竟是從網上直接下載這個模型,模型越大,下載時間越長,但是更大的模型理論上是更聰明的。 當看到 send a message 這個提示就表示我們的大模型已經正常運行了,等待我們的輸入。

image

我們來問個問題

image 或許有的朋友會問,我想在 web 上或者第三方客戶端裡調用該如何使用呢? 且看我們下篇再見。

來羊毛啦,騰訊雲 Cloud Studio 大羊毛!!!一

來羊毛啦,騰訊雲 Cloud Studio 大羊毛!!!二

來羊毛啦,騰訊雲 Cloud Studio 大羊毛!!!三

來羊毛啦,騰訊雲 Cloud Studio 大羊毛!!!四

載入中......
此文章數據所有權由區塊鏈加密技術和智能合約保障僅歸創作者所有。