更正,經筆者測試,Cloud Studio 高性能基礎版由於某種原因是不支持對外服務的,也就是說默認只能在他的命令行下,進行對話操作。 如下圖:
不能提供 api 服務,但其他機器及 hai 機器經筆者測試均支持
接上篇文章來羊毛啦,騰訊雲 Cloud Studio 大羊毛!!! 今天來用騰訊雲 cloud studio 來免費搭建我們的 deepseek r1 大模型,開始
-
打開ollama 的模型頁面
模型頁面列出了 ollama 所支持的一鍵安裝模型,比如我們需要安裝 deepseek-r1,我們直接點擊這個鏈接就好,就能打開模型的具體頁面,如果沒有合適的,可以在搜索欄輸入模型關鍵詞進行搜索。
-
模型的詳情頁面
從這裡我們可以看出,現在支持的模型有 1.5b,7b,8b,14b,32b,20b,671b 等,我們需要哪個模型就直接切換就好,如圖
我們選擇 32b 這個模型進行安裝,如果沒有列出所有的模型,可以點擊圖示中的查看所有 view all。
- 安裝模型 我們複製命令,之後打開 cloud studio 的終端命令框裡輸入命令,進行大模型的安裝及運行,ps 一下,如果只是拉取模型,而不是拉取運行,我們可以用
ollama pull xxx
來運行,ollama 也支持 hf 的模型,但是需要進行轉換,這裡就不做詳細介紹。ollama run deepseek-r1:32b
回車等待下載完成運行。 此時等待的時間長一點,畢竟是從網上直接下載這個模型,模型越大,下載時間越長,但是更大的模型理論上是更聰明的。 當看到 send a message 這個提示就表示我們的大模型已經正常運行了,等待我們的輸入。
我們來問個問題
或許有的朋友會問,我想在 web 上或者第三方客戶端裡調用該如何使用呢? 且看我們下篇再見。