更正、筆者のテストによると、Cloud Studio の高性能基本版は何らかの理由で外部サービスをサポートしていません。つまり、デフォルトでは彼のコマンドラインの下でのみ対話操作が可能です。
以下の図の通り:
API サービスは提供できませんが、他のマシンおよび hai マシンは筆者のテストでサポートされています。
接前回の記事から羊毛を取りに行こう、腾讯云 Cloud Studio 大羊毛!!!
今日は腾讯云 cloud studio を使って無料で私たちの deepseek r1 大モデルを構築します。始めましょう。
-
ollama のモデルページを開く
モデルページには ollama がサポートするワンクリックインストールモデルが一覧表示されています。例えば、私たちが deepseek-r1 をインストールする必要がある場合、直接このリンクをクリックすれば、モデルの具体的なページを開くことができます。適切なものがない場合は、検索バーにモデルのキーワードを入力して検索できます。 -
モデルの詳細ページ
ここから、現在サポートされているモデルには 1.5b、7b、8b、14b、32b、20b、671b などがあることがわかります。必要なモデルを直接切り替えれば大丈夫です。図の通りです。
私たちは 32b のモデルをインストールすることにします。すべてのモデルが表示されていない場合は、図示の「すべて表示」をクリックできます。
- モデルのインストール
コマンドをコピーし、その後 cloud studio のターミナルコマンドボックスにコマンドを入力して大モデルのインストールと実行を行います。ちなみに、モデルを取得するだけで実行しない場合は、ollama pull xxx
を使用して実行できます。ollama は hf のモデルもサポートしていますが、変換が必要です。ここでは詳細な説明はしません。
ollama run deepseek-r1:32b
エンターを押してダウンロードが完了するのを待ちます。
この時、待機時間が少し長くなります。結局、これはインターネットから直接このモデルをダウンロードするためです。モデルが大きいほど、ダウンロード時間が長くなりますが、理論的には大きなモデルはより賢いです。
「メッセージを送信」という提示が表示されると、私たちの大モデルが正常に動作していることを示します。入力を待ちます。
質問をしてみましょう。
もしかしたら、友人の中には「ウェブ上やサードパーティのクライアントで呼び出すにはどうすればいいの?」と尋ねる人もいるかもしれません。
次回をお楽しみに。
羊毛を取りに行こう、腾讯云 Cloud Studio 大羊毛!!!一
羊毛を取りに行こう、腾讯云 Cloud Studio 大羊毛!!!二