Einstein AI Connector 1.2 のチャット操作の設定

Chat Answer Prompt 操作の設定

Chat answer prompt​ 操作では、設定済み LLM に要求を送信します。この操作ではプレーンテキストプロンプトを入力として使用し、その応答にはプレーンテキストの回答が含まれます。

  1. Anypoint Code Builder または Studio キャンバスで操作を選択します。

  2. 操作の ​[General (一般)]​ プロパティタブで、​[Prompt (プロンプト)]​ にプレーンテキストを入力します。

  3. [Additional properties (追加プロパティ)]​ で、次の値を入力します。

    • Model Name (モデル名)

      モデル名を選択します。デフォルトは ​OpenAI GPT 3.5 Turbo​ です。

    • Probability (確度)

      モデルが正確であり続ける確率を入力します。デフォルトは ​0.8​ です。 Locale (ロケール)

      ローカライズ情報を入力します。これには、デフォルトのロケール、入力ロケール、期待される出力ロケールが含まれます。デフォルトは ​en_US​ です。

この操作の XML 設定を次に示します。

<ms-einstein-ai:chat-answer-prompt
  doc:name="Chat answer prompt"
  doc:id="66426c0e-5626-4dfa-88ef-b09f77577261"
  config-ref="Einstein_AI"
  prompt="#[payload.prompt]"
/>

Chat Generate from Messages 操作の設定

Chat generate from messages​ 操作は、指定されたメッセージを使用する、設定済み LLM へのプロンプト要求操作です。この操作では、複数のメッセージを受け入れて、プレーンテキストプロンプトを入力として使用します。操作の応答にはプレーンテキストの回答が含まれます。

  1. Anypoint Code Builder または Studio キャンバスで操作を選択します。

  2. 操作の ​[General (一般)]​ プロパティタブで、​[Messages (メッセージ)]​ にプレーンテキストを入力します。

  3. [Additional properties (追加プロパティ)]​ で、次の値を入力します。

    • Model Name (モデル名)

      モデル名を選択します。デフォルトは ​OpenAI GPT 3.5 Turbo​ です。

    • Probability (確度)

      モデルが正確であり続ける確率を入力します。デフォルトは ​0.8​ です。 Locale (ロケール)

      ローカライズ情報を入力します。これには、デフォルトのロケール、入力ロケール、期待される出力ロケールが含まれます。デフォルトは ​en_US​ です。

この操作の設定 XML を次に示します。

<ms-einstein-ai:chat-generate-from-messages
  doc:name="Chat generate from messages"
  doc:id="94fa27f3-18ce-436c-8a5f-10b8dbfa4ea3"
  config-ref="Einstein_AI"
  messages="#[payload.messages]"
/>