ele

ele

ele

来羊毛啦,腾讯云Cloud Studio大羊毛!!!二

更正、筆者のテストによると、Cloud Studio の高性能基本版は何らかの理由で外部サービスをサポートしていません。つまり、デフォルトでは彼のコマンドラインの下でのみ対話操作が可能です。
以下の図の通り:
EC48EC26-1A07-4B30-86E6-E3DBAA0D61D2

API サービスは提供できませんが、他のマシンおよび hai マシンは筆者のテストでサポートされています。

前回の記事から羊毛を取りに行こう、腾讯云 Cloud Studio 大羊毛!!!
今日は腾讯云 cloud studio を使って無料で私たちの deepseek r1 大モデルを構築します。始めましょう。

  1. ollama のモデルページを開く
    image
    モデルページには ollama がサポートするワンクリックインストールモデルが一覧表示されています。例えば、私たちが deepseek-r1 をインストールする必要がある場合、直接このリンクをクリックすれば、モデルの具体的なページを開くことができます。適切なものがない場合は、検索バーにモデルのキーワードを入力して検索できます。

  2. モデルの詳細ページ
    image
    ここから、現在サポートされているモデルには 1.5b、7b、8b、14b、32b、20b、671b などがあることがわかります。必要なモデルを直接切り替えれば大丈夫です。図の通りです。

image
私たちは 32b のモデルをインストールすることにします。すべてのモデルが表示されていない場合は、図示の「すべて表示」をクリックできます。

  1. モデルのインストール
    コマンドをコピーし、その後 cloud studio のターミナルコマンドボックスにコマンドを入力して大モデルのインストールと実行を行います。ちなみに、モデルを取得するだけで実行しない場合は、ollama pull xxxを使用して実行できます。ollama は hf のモデルもサポートしていますが、変換が必要です。ここでは詳細な説明はしません。
    ollama run deepseek-r1:32b

image

528FFB03-E1E5-457A-A1DB-699855DB64A7
エンターを押してダウンロードが完了するのを待ちます。
この時、待機時間が少し長くなります。結局、これはインターネットから直接このモデルをダウンロードするためです。モデルが大きいほど、ダウンロード時間が長くなりますが、理論的には大きなモデルはより賢いです。
「メッセージを送信」という提示が表示されると、私たちの大モデルが正常に動作していることを示します。入力を待ちます。

image

質問をしてみましょう。

image
もしかしたら、友人の中には「ウェブ上やサードパーティのクライアントで呼び出すにはどうすればいいの?」と尋ねる人もいるかもしれません。
次回をお楽しみに。

羊毛を取りに行こう、腾讯云 Cloud Studio 大羊毛!!!一

羊毛を取りに行こう、腾讯云 Cloud Studio 大羊毛!!!二

羊毛を取りに行こう、腾讯云 Cloud Studio 大羊毛!!!三

羊毛を取りに行こう、腾讯云 Cloud Studio 大羊毛!!!四

読み込み中...
文章は、創作者によって署名され、ブロックチェーンに安全に保存されています。