Vercel AI SDK 6.x : Node.js クイックスタート

AI SDK は、開発者が AI で強化されたアプリケーションを構築するのを支援するように設計された、強力な Typescript ライブラリです。
このクイックスタートでは、素の Node.js をベースに、ストリーミング・チャットインターフェイスを備えた単純なエージェントを構築します。

Vercel AI SDK 6.x : Getting Started – Node.js クイックスタート

作成 : Masashi Okumura (@classcat.com)
作成日時 : 01/11/2026
バージョン : ai@6.0.27

* 本記事は ai-sdk.dev/docs の以下のページを参考にしています :

* サンプルコードの動作確認はしておりますが、必要な場合には適宜、追加改変しています。
* ご自由にリンクを張って頂いてかまいませんが、sales-info@classcat.com までご一報いただけると嬉しいです。

 

 

Vercel AI SDK 6.x : Getting Started – Node.js クイックスタート

AI SDK は、開発者が AI で強化されたアプリケーションを構築するのを支援するように設計された、強力な Typescript ライブラリです。

このクイックスタート・チュートリアルでは、ストリーミング・チャットインターフェイスを備えた単純なエージェントを構築します。その過程で、独自プロジェクトで SDK を利用するための基礎となる主要コンセプトとテクニックを学習します。

 

前提条件

このクイックスタートに従うには、以下が必要です :

  • Node.js 18+ と pnpm がローカル開発マシンにインストールされていること

  • Vercel AI Gateway API キー

 

アプリケーションのセットアップ

まず、mkdir コマンドを使用して新しいディレクトリを作成します。新しいディレクトリに移動したら pnpm init コマンドを実行します。これは新しいディレクトリに package.json を作成します。

mkdir my-ai-app
cd my-ai-app
pnpm init

 

依存関係のインストール

ai, AI SDK をその他の必要な依存関係とともにインストールします。

pnpm add ai zod dotenv
pnpm add -D @types/node tsx typescript

ai パッケージは AI SDK を含みます。zod を使用して、大規模言語モデル (LLM) にわたす型安全なスキーマを定義します。dotenv を使用して、アプリケーション内で環境変数 (Vercel AI Gateway キー) にアクセスします。-D フラグでインストールされる、3 つの開発依存関係もあります、これらは Typescript コードを実行するために必要です。

 

Vercel AI Gateway API キーの設定

プロジェクトルート・ディレクトリに .env ファイルを作成して Vercel AI Gateway API キーを追加します。このキーは、Vercel AI Gateway サービスを使用するアプリケーションを認証するために使用されます。

touch .env

Edit the .env file:

AI_GATEWAY_API_KEY=xxxxxxxxx

xxxxxxxxx を実際の Vercel AI Gateway API キーで置き換えます。

 

アプリケーションの作成

プロジェクトのルートに index.ts を作成して以下のコードを追加します :

Gateway index.ts

import { ModelMessage, streamText } from 'ai';
import 'dotenv/config';
import * as readline from 'node:readline/promises';

const terminal = readline.createInterface({
  input: process.stdin,
  output: process.stdout,
});

const messages: ModelMessage[] = [];

async function main() {
  while (true) {
    const userInput = await terminal.question('You: ');

    messages.push({ role: 'user', content: userInput });

    const result = streamText({
      model: "openai/gpt-4o-mini",
      messages,
    });

    let fullResponse = '';
    process.stdout.write('\nAssistant: ');
    for await (const delta of result.textStream) {
      fullResponse += delta;
      process.stdout.write(delta);
    }
    process.stdout.write('\n\n');

    messages.push({ role: 'assistant', content: fullResponse });
  }
}

main().catch(console.error);

このコードで何が起きているか見てみましょう :

  1. ターミナルから入力を受け取る readline インターフェイスをセットアップし、コマンドラインから直接、対話セッションを有効にします。

  2. 会話の履歴を保存するために messages という名前の配列を初期化します。この履歴はエージェントが進行中のダイアログのコンテキストを保持することを可能にします。

  3. main 関数では :

    • ユーザ入力を要求して捕捉し、userInput に保存します。

    • ユーザ入力をユーザメッセージとして messages 配列に追加します。

    • ai パッケージからインポートされた streamText を呼び出します。この関数は model プロバイダーと messages を含む configuration オブジェクトを受け取ります。

    • streamText 関数により返されるテキストストリーム (result.textStream) を反復処理し、ストリームの内容をターミナルに出力します。

    • アシスタントのレスポンスを messages 配列に追加します。

 

アプリケーションの実行

これで、エージェントに必要なものすべてを構築しました!アプリケーションを起動するには、次のコマンドを使用します :

pnpm tsx index.ts

ターミナルでプロンプトが表示されるはずです。メッセージを入力してテストすると、AI エージェントがリアルタイムに応答するのを確認できます! AI SDK は、Node.js で AI チャットインターフェイスを素早く簡単に構築できます。

 

以上