LLM Prompt

v4.64でアップデート

説明

LLM プロンプト ノードを使用すると、Generative AI を使用して関連コンテンツを作成できます。

このノードを使用する前に、設定で Generative AI プロバイダーを設定します。 設定で定義されたデフォルトのモデルを使用するか、特定の構成済み LLM を選択するようにノードを構成できます。

ノードは次のモードをサポートします。

  • チャット。 このモードはデフォルトで有効になっており、モデルとの動的な会話や対話に適しています。 [トランスクリプト ステップ] 設定で選択したトランスクリプト ターン (メッセージ) の数に応じて、ユーザーとボットからのメッセージのコンテキストが考慮されます。
  • プロンプト。 このモードは、単一ターンのタスクまたは単一のプロンプトに基づいてテキストを生成する場合に適しています。

LLM プロバイダーがチャット モードをサポートしていない場合、Cognigy はチャット リクエストをプロンプト リクエストに自動的に変換します。

結果の保存

モデル出力を保存してから、LLM プロンプト ノードの出力をユーザーに表示するには、[ストレージとストリーミング オプション] セクションで [入力に保存] または [コンテキストに保存] を選択します。

ストリーミング結果

出力結果を入力オブジェクトまたはコンテキスト オブジェクトに保存したり、Say ノードを利用したりせずに、チャットにすぐに表示したい場合は、[ストレージとストリーミング オプション] セクションで [出力へのストリーム] 設定を選択します。

設定

命令

これは、完了を求めるプロンプトまたはチャットのシステム メッセージです。

さらに、次のタグを使用して、最近の会話を [プロンプト] フィールドに挿入できます。

  • @cognigyRecentConversation — タグは、最大 10 個の最近の仮想エージェントと 10 個のユーザー出力を含めることができる文字列に置き換えられます。次に例を示します。

    
    Bot: agentOutput1
    User: userOutput1
    Bot: agentOutput2
    User: userOutput2
          
  • @cognigyRecentUserInputs — タグは、最近のユーザー出力を最大 10 件含むことができる文字列に置き換えられます。次に例を示します。

    
    User: userOutput1
    User: userOutput2
            

最後のユーザー入力のみにアクセスしたい場合は、「プロンプト」フィールドにテキスト・トークンを指定します。

タグを追加するときは、タグの前後に必ず改行を入れてください。次に例を示します。

code

どちらのタグにも、タグに追加されるオプションのターン制限パラメータを含めることができます。

例:

code

高度な設定

パラメータタイプ説明
サンプリング方法選択方法:
温度 — 生成されるテキストのランダム性のレベルを決定します。 温度が高いほど、より多様で創造的な出力が可能になり、温度が低いほど、トレーニング データとの出力がより予測可能で一貫性のあるものになります。
上位パーセンテージ — 生成される可能性が最も高い出力のパーセンテージを指定し、より一貫した出力が得られます。
最大トークンインジケータ完了時に生成するトークンの最大数。
プレゼンスペナルティインジケータ-2.0 から 2.0 までの数値。 正の値を指定すると、これまでにテキストに出現したかどうかに基づいて新しいトークンにペナルティが課され、モデルが新しいトピックについて話す可能性が高まります。
周波数ペナルティインジケータ-2.0 から 2.0 までの数値。 ペナルティは、生成されたテキストに頻繁に出現するトークンに低い確率を割り当て、モデルがより多様でユニークなコンテンツを生成することを促進します。
停止を使用するトグルストップワードのリストを使用して生成 AI に文の停止位置を知らせるかどうか。
停止テキストAPI がさらなるトークンの生成を停止する最大 4 つのシーケンス。 返されるテキストには停止シーケンスは含まれません。
タイムアウト数値Generative AI プロバイダーからの応答を待機する最大時間 (ミリ秒)。

ストレージとストリーミングのオプション

パラメータタイプ説明
結果の扱い方Selectプロンプトの結果を処理する方法を決定します。
入力に保存 — 結果を入力オブジェクトに保存します。 プロンプト結果を出力するには、Say ノードで LLM プロンプト結果トークンを使用します。
コンテキストに保存 — 結果をコンテキストの入力オブジェクトに保存します。 プロンプト結果を出力するには、Say ノードで LLM プロンプト結果トークンを使用します。
出力へのストリーム — 結果を出力に直接ストリーミングします。 これは、モデルが会話チャットに直接プロンプトを提供し、LLM プロンプト結果トークンと Say ノードを使用する必要がないことを意味します。 この結果は、入力にもコンテキストにも保存されません。 ストリーミングは、Google1 などのすべての Cognigy LLM プロンプト ノード プロバイダーでサポートされているわけではないことに注意してください。 ストリーミングがサポートされていない場合、結果は入力オブジェクトに書き込まれます。
結果を保存するキーを入力CognigyScriptこのパラメータは、「入力に保存」が選択されている場合にアクティブになります。 結果は、デフォルトで、promptResult 入力オブジェクトに保存されます。 別の値を指定することもできます。
結果を保存するコンテキストキーCognigyScriptこのパラメータは、「コンテキストに保存」が選択されている場合にアクティブになります。 結果はデフォルトで、promptResult Context オブジェクトに保存されます。 別の値を指定することもできます。
ストリーム出力トークンCognigyScriptこのパラメータは、「ストリームから出力」が選択されている場合にアクティブになります。 その後ストリーム バッファーを出力するトークン。 トークンには、句読点や記号 (\n など) を使用できます。

デバッグオプション

インタラクション パネルを使用すると、2 種類のデバッグ ログをトリガーできます。 これらのログは、インタラクション パネルを使用する場合にのみ利用可能であり、運用環境のデバッグを目的としたものではありません。 両方のログ タイプを組み合わせることもできます。

パラメータタイプ説明
ログトークン数トグルリクエストと完了のために消費された LLM トークンの数を記録します。 Cognigy は GPT-3 トークナイザー アルゴリズムを使用するため、実際のトークンの使用量は使用されるモデルによって異なる場合があります。
ログのリクエストと完了トグルLLM プロバイダーに送信されたリクエストとその後の完了の両方をログに記録します。

詳しくはこちら


1. すべての LLM モデルがストリーミングをサポートしているわけではないのでご注意ください。