Skip to content

API 設定例

IMPORTANT

プロバイダーにニックネームを設定する際は、パラメータを編集する前に必ず「Reload(再読み込み)」をクリックしてください。 JSON 形式に慣れていない場合は、JSONLint のようなサイトで検証することをおすすめします。

Emmersive(Elin with AI)は、function-calling(関数呼び出し) または tool-call(ツール呼び出し)、さらに structured output(構造化出力) または json mode(JSON モード) に対応した AI サービスを必要とします。

推論を有効にするかどうか

一部のモデルは「推論機能(reasoning)」を提供しており、より高品質な出力を生成できますが、その分、生成時間が長くなり、token の消費も増えます。

Elin ゲームのコンテキストおよび Emmersive システムが数行の JSON 出力を主とする特性を考慮すると、推論機能を有効にすることによるコスト(遅延・token 消費・応答性の低下)はあまり得策ではないかもしれません。

すべての reasoning_effort / thinkingBudget はデフォルトで最低値に設定されていますが、必要に応じてパラメータで変更できます。

Google Gemini(無料!)

Google AI Studio にアクセスし、プロジェクトを作成します。 無料枠を利用する場合は、3 つのプロジェクトを作成することを推奨します(レート制限は API キー単位ではなくプロジェクト単位で適用されます)。

モデルgemini-2.5-flash 他のモデルに変更可能ですが、無料層では gemini-2.5-pro のような推論モデルはやや遅い場合があります。 デフォルトモデルは gemini-2.5-flash です。

パラメータ参考Google Gemini API Reference

無料レート制限:1 プロジェクトあたり 1 分間に 15 リクエスト、1 アカウントあたり 1 日 250 リクエスト。

推奨 AI サービスのクールダウン時間1s

NVIDIA NIM(無料!)

NVIDIA Build にアクセスし、新しい API キーを作成します。

OpenAIプロバイダーを作成し、APIキーを貼り付けて設定を変更してください。

ベース URLhttps://integrate.api.nvidia.com/v1

モデルdeepseek-ai/deepseek-v3.1-terminus
(または NVIDIA モデル一覧 に掲載されている他のモデル)

パラメータ:

json
{
  "response_format": {
    "type": "json_object"
  }
}

任意パラメータ:temperaturetop_pmax_tokensfrequency_penaltypresence_penalty

無料レート制限:1 分間に 40 リクエスト。

推奨クールダウン時間1s

その他の無料AIリソース:

free-llm-api-resources

OpenAI ChatGPT

OpenAI Platform にアクセスし、新しい API キーを生成します。

OpenAIプロバイダーを作成し、APIキーを貼り付けて設定を変更してください。

ベース URLhttps://api.openai.com/v1

モデルgpt-5-nano
(または OpenAI モデル一覧 にある任意のモデル)

パラメータ(Emmersive によりデフォルト提供):

json
{
  "frequency_penalty": 0.6,
  "reasoning_effort": "minimal",
  "response_format": {
    "type": "json_schema",
    "json_schema": {
      // 一部省略
    }
  }
}

参照:OpenAI Chat Completion API Reference

OpenAI 互換サービスプロバイダー

他のサービスプロバイダーを使用するのも簡単です。 ベース URL、モデル、パラメータを変更するだけで対応できます。

DeepSeek

DeepSeek Platform にアクセスし、新しい API キーを作成します。

OpenAIプロバイダーを作成し、APIキーを貼り付けて設定を変更してください。

ベース URLhttps://api.deepseek.com/v1(またはシリコンフローなど他の提供元)

モデルdeepseek-chat(DeepSeekV3.2-Exp の非推論バージョン)

パラメータ:

json
{
  "frequency_penalty": 0.6,
  "response_format": {
    "type": "json_object"
  }
}

参照:DeepSeek Chat Completion API Reference

X.AI(grok)

X.AI にアクセスし、ログインして新しい API キーを作成します。

OpenAIプロバイダーを作成し、APIキーを貼り付けて設定を変更してください。

ベース URLhttps://api.x.ai/v1

モデルgrok-4-fast-non-reasoning
(または X.AI モデル一覧 にある任意のモデル)

パラメータ:

json
{
  "response_format": {
    "type": "json_schema",
    "json_schema": {
        // 一部省略
    }
  }
}

参照:X.AI Chat Completions API Reference

ローカル LLM(Ollama / WebUI)

設定方法は同じで、ベース URL をローカルポートに変更するだけです。

OpenAIプロバイダーを作成し、APIキーを貼り付けて設定を変更してください。

使用するモデルに応じて、モデル名とパラメータを調整してください。

参照:

Ollama: http://localhost:11434/v1