ele

ele

ele

来羊毛啦,腾讯云Cloud Studio大羊毛!!!二

更正,经笔者测试,Cloud Studio 高性能基础版由于某种原因是不支持对外服务的,也就是说默认只能在他的命令行下,进行对话操作。
如下图:
EC48EC26-1A07-4B30-86E6-E3DBAA0D61D2

不能提供 api 服务,但其他机器及 hai 机器经笔者测试均支持

上篇文章来羊毛啦,腾讯云 Cloud Studio 大羊毛!!!
今天来用腾讯云 cloud stduio 来免费搭建我们的 deepseek r1 大模型,开始

  1. 打开ollama 的模型页面
    image
    模型页面列出了 ollama 所支持的一键安装模型,比如我们需要安装 deepseek-r1,我们直接点击这个链接就好,就能打开模型的具体页面,如果没有合适的,可以在搜索栏输入模型关键词进行搜索。

  2. 模型的详情页面
    image
    从这里我们可以看出,当前支持的模型有 1.5b,7b,8b,14b,32b,20b,671b 等,我们需要哪个模型就直接切换就好,如图

image
我们选择 32b 这个模型进行安装,如果没有列出所有的模型,可以点击图示中的查看所有 view all。

  1. 安装模型
    我们复制命令,之后打开 cloud studio 的终端命令框里输入命令,进行大模型的安装及运行,ps 一下,如果只是拉取模型,而不是拉取运行,我们可以用
    ollama pull xxx 来运行,ollama 也支持 hf 的模型,但是需要进行转换,这里就不做详细介绍。
    ollama run deepseek-r1:32b

image

528FFB03-E1E5-457A-A1DB-699855DB64A7
回车等待下载完成运行。
此时等待的时间长一点,毕竟时从网上直接下载这个模型,模型越大,下载时间越长,但是更大的模型理论上时更聪明的。
当看到 send a message 这个提示就表示我们的大模型已经正常运行了,等待我们的输入。

image

我们来问个问题

image
或许有的朋友会问,我想在 web 上或者第三方客户端里调用该如何使用呢?
且看我们下篇再见。

来羊毛啦,腾讯云 Cloud Studio 大羊毛!!!一

来羊毛啦,腾讯云 Cloud Studio 大羊毛!!!二

来羊毛啦,腾讯云 Cloud Studio 大羊毛!!!三

来羊毛啦,腾讯云 Cloud Studio 大羊毛!!!四

加载中...
此文章数据所有权由区块链加密技术和智能合约保障仅归创作者所有。