大規模言語モデル(LLM)

v4.65でアップデート

大規模言語モデル(LLM)は、提供された入力とコンテキストに基づいて人間のようなテキストを生成するように設計された、特定のタイプの生成AIモデルです。これらのモデルは膨大な量のテキストデータで学習され、単語やフレーズ間のパターン、構文、意味的関係を学習することができます。

LLMを使用することで、Cognigyのバーチャルエージェントはユーザーの入力を理解し、自然な形で応答することができます。これらのモデルは、関連性があり文脈に適した応答を生成することで、トークをより魅力的なものにします。また、LLMはダイアログの管理と多言語サポートを支援し、ユーザーの全体的なトーク体験価値を向上させます。

対応モデル

以下の表は、Cognigyが対応しているLLMの一覧です。

モデル/
Cognigy機能
Intentセンテンスの生成AI強化出力Lexiconの生成Flowの生成GPT Conversation NodeLLM Prompt NodeとSearch Extract Output NodeNode出力の生成知識検索感情分析
Microsoft Azure OpenAI
gpt-3.5-turbo (ChatGPT)++++++++
gpt-3.5-turbo-instruct+
gpt-4+
text-davinci-003 (非推奨)+++++++
text-embedding-ada-002+
OpenAI
gpt-3.5-turbo (ChatGPT)++++++++
gpt-3.5-turbo-instruct+
gpt-4+
text-davinci-003 (非推奨)+++++++
text-embedding-ada-002+
claude-v1-100k+
Anthropic
claude-instant-v1+
Google
text-bison-001 (Bard)+
Aleph Alpha
luminous-extended-control+
luminous-embedding-128*+

luminous-embedding-128

この機能は現在ベータ版であり、問題が生じる可能性があります。 1つのプロジェクトにつき 1 種類の埋め込み LLM のみを使用してください。 luminous-embedding-128 を使用する場合は、新しいプロジェクトを作成してください。プロジェクトで埋め込みモデルを選択すると、別の埋め込みモデルに切り替えることはできません。別の埋め込みモデルに切り替える場合は、 別のプロジェクトを使用してください。これを行わないと、この機能がベータ版であるうちは、エラーが発生します。

モデルの追加

Cognigy.AIにモデルを追加するには、以下の手順で行います:

  1. Cognigy.AI インフェースを開きます。
  2. [Build] > [LLM]に進みます。
  3. [+New LLM]をクリックします。
  4. [New LLM]ウィンドウで、[Model Type]リストからモデルを選択します。
  5. モデルに固有の名前と説明を追加し、[Save(保存)]をクリックします。
  6. [LLM Editor]ウィンドウで、[Generative AI Connection(生成AI接続)] フィールドに移動します。
  7. フィールドの右側で、+をクリックします。
  8. モデルプロバイダーによって異なりますが、以下の操作を行います
  • Microsoft Azure OpenAI
  • OpenAI
  • Anthropic
  • Google
  • Aleph Alpha

8.1 以下のフィールドに入力します:
Connection name(接続名) ― 接続の一意の名前を作成します。
apiKey(APIキー)Azure APIキーを追加します。この値は、Azureポータルからリソースを調べる際に、[Keys & Endpoint]セクションで確認できます。KEY1 または KEY2 のいずれかを使用できます。
Resource Name(リソース名)リソース名を追加します。この値は、Azure ポータルの [Resource Management] > [Deployments]、またはAzure OpenAI Studioの[Management] > [Deployments] にあります。
8.2 [Create(作成)] をクリックします。
8.3 残りのフィールドに入力します:
Deployment Name(デプロイ名) ― モデル名を追加します。
– Api Version(APIバージョン)ー APIバージョンを追加します。この操作に使用するAPI バージョンを YYYY-MM-DD 形式で入力します。バージョンは、例えば2023-03-15-previewのように、拡張された形式を持つ可能性があることにご注意ください。
Custom URL(カスタムURL) ― このパラメータはオプションです。クラスタとAzure OpenAIプロバイダ間の接続を制御するために、専用のプロキシサーバを経由して接続をルーティングし、追加のセキュリティレイヤーを作成することができます。これを行うには、次のパターンでURLを入力します(https://.openai.azure.com/openai/deployments//completions?api-version=カスタムURLが追加されると、リソース名、デプロイ名、および API バージョンの各フィールドは無視されます。

8.1 以下のフィールドに入力します:
Connection name(接続名) ― 接続の一意の名前を作成します。
apiKey(APIキー) ― OpenAI アカウントの APIキーを追加します。このキーは OpenAIアカウントのUser settings(ユーザー設定)にあります。
8.2 [Create(作成)] をクリックします。
8.3 残りのフィールドに入力します:
Custom Model(カスタムモデル) ― 使用するモデルを入力します。このパラメータは、LLM プロバイダ側に複数のタイプのモデルがあり、特定のモデルタイプを利用する場合に役立ちます。例えば、GPT-4を持っている場合、ユースケースにgpt-4-0613を入力することができます。このパラメータはオプションです。カスタムモデルが追加された場合、デフォルトのLLMモデルは無視されます。プロバイダのモデルの詳細については、[OpenAI]のドキュメントをご参照ください。

8.1 以下のフィールドに入力します:
Connection name(接続名) ― 接続の一意の名前を作成します。
apiKey(APIキー) ― AnthropicのAccount Settings(アカウント設定)で生成したAPIキーを追加します。
8.2 [Create(作成)] をクリックします。

8.1 接続名フィールドに、接続の一意の名前を入力します。
8.2 モデルのキーを含むJSONファイルをアップロードするには、このキーを取得する必要があります。Google Vertex AIコンソールにアクセスします。
8.3 API接続が有効化されていない場合は、[Enable All Recommended APIs(すべての推奨APIを有効にする)]ボタンをクリックして有効化します。Vertex AI API が有効になっていることを確認します。
8.4 左側のメニューで、[IAM & Admin] > [Service Accounts]に進みます。
8.5 [Actions] を選択し、[Manage Keys] をクリックします。
8.6 [Keys]ページで[Add Key]を選択し、[Create new Key]をクリックします。
8.7 表示されたウィンドウで、JSONキータイプを選択し、[Create(作成)]をクリックします。ファイルがダウンロードされます。
8.8 Cognigyの[New Connection]ウィンドウで、[Upload JSON file]をクリックし、ファイルをアップロードします。
8.9 [Create(作成)] をクリックします。
8.10 残りのフィールドに入力します:
Location(地域) ― モデルの地域を追加します。(例:us-central1)
API Endpoint ― モデルのサービスエンドポイントを追加します。(例:us-central1-aiplatform.googleapis.com)エンドポイントは、https:// または http:// を省略した形で入力する必要があります。
Publisher ― モデルの所有者名を追加します。指定しない場合は、デフォルトでGoogleが使用されます。このパラメータはオプションです。

8.1 以下のフィールドに入力します:
Connection name(接続名) ― 接続の一意の名前を作成します。
Token* ― Aleph Alphaアカウントで作成したキーを入力します。
8.2 [Create(作成)] をクリックします。
8.3 残りのフィールドに入力します:
Custom Model(カスタムモデル) ― 使用したい特定のモデルを指定します(例:luminous-base)このパラメータはオプションです。カスタムモデルを追加すると、デフォルトのLLMモデルは無視されます。プロバイダーのモデルの詳細については、[Aleph Alpha]のドキュメントをご参照ください。

9. 変更を適用するには、[Save(保存)]をクリックします。
10. 接続が設定されたかどうかを確認するには、[Test(テスト)]をクリックします。

モデルが追加されると、モデルのリストに表示されます。

このモデルをCognigy機能に適用するには、[Manage LLM Features]をクリックして設定に進みます。

モデルの適用

モデルを適用するには、以下の手順で行います:

  1. Cognigy.AIインタフェースを開きます。
  2. 左側のメニューで [Manage] > [Settings]をクリックします。
  3. [Generative AI Settings(生成AI設定)]セクションで、[Enable Generative AI Features(生成AI機能を有効にする)]を有効にします。この設定は、以前に生成AI認証情報を設定した場合、デフォルトでオンに設定されています。
  4. 目的の機能に移動し、リストからモデルを選択します。選択した機能で利用可能なモデルがない場合、システムは自動的に「None(なし)」を選択します。
  5. [Save(保存)] をクリックします。

モデルの複製

既存のモデルのコピーを作成するには、以下の手順で行います:

  1. [Build] > [LLM]に進みます。
  2. 既存のモデルにカーソルを合わせ、縦の三点リーダをクリックします。
  3. リストから[Clone(複製)]を選択します。

モデルには初期モデルと同じ設定が含まれます。

デフォルトとしてモデルを設定

デフォルトモデルを設定することで、特定のモデルが削除されたときにスムーズな移行ができます。これは、割り当てられたモデルが削除されたとしても、互換性のあるユースケースを処理できるモデルが常に存在することを保証します。

モデルをデフォルトに設定するには、以下の手順で行います:

  1. [Build] > [LLM]に進みます。
  2. 既存のモデルにカーソルを合わせ、縦の三点リーダをクリックします。
  3. リストから[Make Default(デフォルトにする)]を選択します。

選択したモデルに設定が適用されます。

パッケージとしてモデルをエクスポート

モデルを他のエージェントで再利用するには、モデルをパッケージ化します。

モデルをパッケージ化するには、以下の手順で行います:

  1. [Build] > [LLM]に進みます。
  2. 既存のモデルにカーソルを合わせ、縦の三点リーダをクリックします。
  3. [Create a package(パッケージの作成)]を選択します。
  4. パッケージが作成されると、[Create package]というタイトルの新しいタスクが実行されます。タスクを表示するには、右上の[task-menu]をクリックします。 タスクが完了すると、パッケージがダウンロードされます。

タスクが完了すると、パッケージがダウンロードされます。

モデルの削除

デフォルトモデルは削除できないことにご注意ください。削除する前に、デフォルトのタグを削除する必要があります。

モデルを削除するには、以下の手順で行います:

  1. [Build] > [LLM]に進みます。
  2. 既存のモデルにカーソルを合わせ、縦の三点リーダをクリックします。
  3. [Delete(削除)]を選択します。
  4. 削除を確認します。このモデルに依存している機能は、その機能をサポートするデフォルトモデルが設定されていない場合、機能しなくなります。

モデルはリストから削除されます。

詳細はこちら

  • Generative AI(生成AI)
  • Knowledge AI(知識型AI)