ele

ele

ele

来てください、腾讯云Cloud Studioの大羊毛!!!一

更正、筆者のテストによると、Cloud Studio 高性能基本版は何らかの理由で対外サービスをサポートしていない、つまりデフォルトでは彼のコマンドラインの下でのみ対話操作を行うことができる。
以下の図:
EC48EC26-1A07-4B30-86E6-E3DBAA0D61D2

API サービスを提供できないが、他のマシンおよび hai マシンは筆者のテストで全てサポートされている。

Tencent Cloud は良心的なクラウドであり、この波の福利は絶対に逃すべきではない。
今日は私たちの主役を紹介します。
腾讯云 Cloud Studio

概要:

Cloud Studio はブラウザベースの統合開発環境(IDE)で、開発者に途切れることのないクラウドワークステーションを提供します。ユーザーは Cloud Studio を使用する際にインストールする必要がなく、いつでもどこでもブラウザを開くだけでオンラインプログラミングができます。

5B3BB8EB-A7B2-4F0E-849B-051DC3EFBA55

Cloud Studio はオンライン IDE として、コードハイライト、自動補完、Git 統合、ターミナルなどの IDE の基本機能を含み、リアルタイムデバッグやプラグイン拡張などもサポートしており、開発者がさまざまなアプリケーションの開発、コンパイル、デプロイ作業を迅速に完了するのを助けます。
オンライン IDE インターフェース
image

より詳細な紹介はここで見ることができます公式文書

なぜこれを言うのかというと、Tencent Cloud は開発者に多くの無料体験時間を提供しているからです。
最初の頃は 3000 分の時間を提供しました(一般的なもの)。
高性能では 10000 分の時間を提供し、現在は一般的な時間が 50000 分に増えました。さて、余計なことは言わずに、始めましょう。
今日のチュートリアルは、Cloud Studio を使って ollama を通じて大モデルをデプロイする方法を教えます。

第一歩、腾讯云アカウントを登録します。これは特に言うことはなく、指示に従って登録し、実名を登録すれば大丈夫です。速度は非常に速いです。
第二歩、私たちの主役である Tencent Cloud Cloud Studioを開きます。
インターフェースは以下の通りです:

CA4FED14-715E-420D-A931-454F4706400F

第三歩、新しいスペースを作成します。
図のように、まず左側のメニューをクリックし、高性能スペースを選択し、その後新規作成をクリックします。

8DFC11C6-2F58-4916-8220-4644625E531B

もしかしたら疑問に思う人もいるかもしれませんが、上のバナーには ollama を直接作成できると書いてあり、最も人気のある deepseek だと言っていますが、なぜ ollama を使って作成する方法をわざわざ説明する必要があるのでしょうか?これは「魚を与えるよりも釣り方を教える」ためです。もし ollama をインストールできれば、その後他の大モデルもインストールして使用できるようになります。さて、続けましょう。

89C5498A-D9D3-47E3-9536-3F3D13EFDD7E

適切な仕様を選択し、次へ進むをクリックすると、マシンの作成が始まります。数分かかることがありますが、その後自動的に IDE ページにリダイレクトされます。
今日はまたリソースが放出されたので、私は左下の高性能スペースを直接選びました。結局、これは GPU サーバーです。そう、無料体験の GPU サーバーです。

第四歩、ollama をインストールします。
その後、エディタのメニューバーでターミナルを選択し、==》新しいターミナルを選びます。

18F5AC3E-5DA1-4DBB-8489-B67060BD9825

エディタの右下部分が開いているターミナルです。ここで通常の Linux コマンドを入力すれば大丈夫です。ollama という大モデルデプロイフレームワークをインストールします。1 つのコマンドで ollama をインストールできます。

2A7E44FE-E7A4-440B-A89E-090FBA70B1F6

curl -fsSL https://ollama.com/install.sh | sh
上記のコマンドをターミナルにコピーし、Enter を押して自動インストールを開始します。

少し待つと、インストールが成功します。
画面は異なる場合がありますが、コマンドは同じです。
インストールが成功したら、ターミナルで ollama --help を入力します。
ネットワークの問題で、私はすでにダウンロード済みのものを使用します。

A30426E7-BF04-44D4-9372-47AC56C35635

私たちがよく使うコマンドは ollama run xxxx で、xxx モデルを一括ダウンロードして実行します。
ollama stop xxxx で xxx 大モデルの実行を停止します。
ollama list でダウンロード済みの大モデルを一覧表示します。
ollama ps で実行中の大モデルを一覧表示します。
ollama rm xxxx で大モデルを削除します(先に停止してから削除します)。
その他の情報は文書を参考にしてください。
ollama がサポートするモデルは主流のオープンソース大モデルがサポートされており、具体的には公式サイトで確認できます。

D0226684-8F3F-4FC8-9E63-9765E69D46A9

来羊毛啦,腾讯云 Cloud Studio 大羊毛!!!一

来羊毛啦,腾讯云 Cloud Studio 大羊毛!!!二

来羊毛啦,腾讯云 Cloud Studio 大羊毛!!!三

来羊毛啦,腾讯云 Cloud Studio 大羊毛!!!四

読み込み中...
文章は、創作者によって署名され、ブロックチェーンに安全に保存されています。