はじめに

システム開発でよく使われるデータベースといえば、RDB(リレーショナルデータベース)が定番です。私のチームでも長らく、Oracle や MySQL などの RDB を利用してきましたが、ある新規APIの開発で MongoDB を採用してみたところ、思っていた以上に開発がスムーズになりました。

この記事では、MongoDB を Java + Spring Boot で使用してみて感じた3つのメリットを、実際の実装例を交えて紹介します。

MongoDB の特徴

MongoDB はドキュメント指向の NoSQL データベースであり、RDB と比べて非常に緩い設計になっているのが特徴です。RDBと違いを感じるのは、例えば以下のような点です。

  • 構造化オブジェクト(JSONのようなもの)を丸ごと保存できる
  • 格納するオブジェクトの仕様を厳密に決めておく必要が無い(カラム定義などは不要)
  • コレクション(RDBでいうところのテーブル)に追加しようとしたときに、コレクションが無ければ自動的に作成される。データベースが無かった場合は、データベースも自動的に作成される

プログラムから 何でも入る入れ物 的な感覚で、簡単に使えるのが特徴です。

簡単に始められる MongoDB

MongoDB の準備

MongoDB はローカルにインストールして起動します。インストール手順は割愛しますが、Dockerイメージ を使うか、公式サイトからダウンロードしてインストールすることになります。

前述した通り、データベースやコレクションを用意する必要は無いのですが、ユーザだけは用意しておく必要があります。インストールした後、以下のコマンドを MongoDB Shell などで実行します。

use admin
db.createUser({
  user: "appuser",
  pwd:  "secret",
  roles: [ { role: "readWrite", db: "sampledb" } ]
})

Spring Boot の設定

Spring Boot では、spring-boot-starter-data-mongodb を依存関係に追加するだけで、 MongoDB を簡単に利用できます。Maven の場合は以下を pom.xml に追加します。

<dependency>
    <groupId>org.springframework.boot</groupId>
    <artifactId>spring-boot-starter-data-mongodb</artifactId>
</dependency>

接続設定は Spring Boot の application.yml に以下のように記述します。

spring:
  data:
    mongodb:
      host: localhost
      port: 27017
      database: sampledb
      username: appuser
      password: secret
      auto-index-creation: true

auto-index-creation は、後に説明する @Indexed でインデックスを作る機能を有効にするための設定です。

エンティティ

@Document(collection = "login_history")
public class LoginHistory {
    @Id
    private String id;

    @Indexed
    private String userId;

    @Indexed(expireAfter = "30d") // 30日で自動削除
    private LocalDateTime createdAt;
}

エンティティクラスに付けている @Document アノテーションで、保存するコレクション名を指定しています。

@Id をつけたフィールドは _id という特殊なフィールドにマッピングされます。これはコレクション内でドキュメントを一意に識別するための値で、RDBでいうところの主キーに相当する役割を持ちます。

@Indexed は項目にインデックスを作成するアノテーションです。RDBのインデックスと同様で、この項目による検索を高速に行えるようになります。

expireAfter をつけると、 TTL(Time To Live)インデックス という特殊なインデックスが作成されます。これは、設定した期間を過ぎると、MongoDBが自動的にレコードを削除してくれる機能です。この例では createdAt から30日以上経過している場合に削除対象となります。

リポジトリ

public interface LoginHistoryRepository extends MongoRepository<LoginHistory, String> {
    List<LoginHistory> findByUserId(String userId);
}

あとはこのリポジトリをDIして、簡単に読み書きができます。

// 保存
loginHistory.setId("a001");
loginHistory.setUserId("sampleUser");
loginHistory.setCreatedAt(java.time.LocalDateTime.now());
loginHistoryRepository.save(loginHistory);

// IDで取得
Optional<LoginHistory> h1 = loginHistoryRepository.findById("a001");

// ユーザIDで取得
List<LoginHistory> histories = loginHistoryRepository.findByUserId("sampleUser");

このようなコードで最初のレコードを save すると、MongoDB 側には自動的に login_history コレクションが作成され、userIdcreatedAt にインデックスが付与されます。

実感した MongoDB の3つのメリット

1. DDL作成や実行が不要

前述した通り、MongoDB はコレクションが無くても自動的に作ってくれますし、スキーマを決めておく必要もありません。

そのため、Spring のプログラムから何かを保存したいと思ったときに、エンティティとリポジトリさえ用意すれば、すぐに保存することができます。

これによって、開発者がプログラムとDBを同時に扱えるようになり、RDBと比べて開発の自由度とスピードが上がりました。

2. TTLインデックスによる自動削除が便利

ログやセッション情報など、「一定期間で削除してよいデータ」は多く存在します。RDBでは古いデータを削除するためにバッチ処理を用意し、スケジュール実行・監視を行うのが一般的です。

MongoDBでは、前述したTTLインデックスを設定するだけで、MongoDBが自動的に期限切れのデータを削除してくれるため、削除バッチを作る必要がなくなりました。

3. データ構造が柔軟で変更に強い

正規化せずにデータを格納するため、RDBでは複数テーブルに分けてJOINしていたデータも1ドキュメントにまとめて保持できます。

そのため、データ構造が変更になっても、RDBと比べて影響が少なく、変更に強いと感じました。

導入して感じたこと

MongoDB はとても使いやすくて便利なデータベースですが、必ずしもRDBよりも優れているというわけではありません。向き不向きはあります。

具体的には、やはり正規化されていないので、複雑な結合クエリや集計は書きづらいです。複雑な検索が必要なデータには、RDBのほうが向いていると思います。

一方で、複雑な集計を必要としないデータであれば、非常に使いやすく、用途によっては良い選択肢になると感じました。

まとめ

MongoDB を Java/Spring 環境で使ってみて感じたメリットは、以下の3点でした。

  • DDL作成や実行が不要
  • TTLインデックスによる自動削除が便利
  • データ構造が柔軟で変更に強い

一昔前は、データベースと言えばRDBでしたが、最近は MongoDB のようなドキュメント指向DBを始めとして、様々な種類のデータベースが登場しています。そして、それらが現場で使われ始めているとも感じています。

データベースには向き不向きがあります。特定の技術に固執するのではなく、様々な種類のデータベースの特徴を比較検討し、最適なものを選択することが、これからの開発には求められていくと思います。

はじめに

LLMを使っていると、「毎回似たような指示を書いているのに、出力が安定しない」という課題に直面することがあります。これは、入力の書き方や順序のわずかな違いによって出力が変わってしまうためです。安定した結果を得るためには、うまく書くことよりも一貫した構造でプロンプトを設計することが重要です。

この記事では、生成AI開発で注目されている LangChain を使い、再現性・保守性の高いプロンプトを設計する方法を紹介します。

LangChainとは

LangChain(ランチェーン) は、OpenAIやGoogle Geminiなどの大規模言語モデル(LLM)を効率的に活用するためのPythonライブラリです。プロンプト設計・外部ツール連携・メモリ管理・出力制御などを体系的に扱うことができ、AIアプリケーション開発の土台として広く使われています。

その中でもプロンプト設計に重要なのが PromptTemplate 機能 です。これはプロンプトをテンプレート化し、「固定ルール」と「変動要素」を分離することで、再利用性と安定性を高める機能です。

たとえば、「口調や出力形式は固定」「質問内容だけ毎回変える」といった使い方が簡単にできます。

LangChainでできること

LangChainでは、主に次のような機能を利用できます。

機能カテゴリ説明主なクラス活用例
プロンプト設計テンプレートで一貫性を保つPromptTemplate​ChatPromptTemplate役割・口調・出力形式を固定
モデル接続各種LLMを統一的に扱うChatOpenAI​, ChatGoogleGenerativeAIOpenAI ⇔ Gemini の切り替え
チェーン構築複数プロンプトを連携LLMChain​, SequentialChain生成→要約→整形 などの分割
出力制御JSONなど構造化出力に対応PydanticOutputParserAPIで安全なデータ返却
メモリ管理会話履歴を保持ConversationBufferMemoryチャットボット開発
外部連携APIやDBと接続Tool​, Agent検索・ファイル操作・自動化

再現性を高めるプロンプト設計

プロンプト設計の基本

プロンプト設計では、固定部分変動部分を分けて考えることが重要です。LangChainの PromptTemplate を使うと、これらを明確に分離でき、同じ構造で安定した出力が得られます。

区分内容
固定部分役割・口調・出力形式など常に同じルール役割: 専門家、口調: 丁寧、形式: 箇条書き
変動部分質問や条件など、毎回変わる部分「ダイエット中でも筋肉を落とさない食事は?」

PromptTemplateの使い方とコード例

以下は、Google Gemini モデルを使ってプロンプトテンプレートを作成する例です。

!pip install -U langchain langchain-google-genai protobuf==4.21.6
from langchain_google_genai import ChatGoogleGenerativeAI
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.output_parsers import StrOutputParser

llm = ChatGoogleGenerativeAI(model="gemini-2.5-flash", api_key="API KEYを入力")

prompt = ChatPromptTemplate.from_messages([
  ("system", "あなたは{role}です。回答は{tone}で、出力形式は{format}です。"),
  ("human", "質問: {question}")
])
chain = prompt | llm | StrOutputParser()

result = chain.invoke({
  "role": "スポーツ栄養士",
  "tone": "科学的",
  "format":"簡潔な3つの箇条書き",
  "question": "ダイエット中でも筋肉を落とさない食事の工夫は?"
})
print(result)

 

■ 出力結果

このように、テンプレートを使うと構造を保ちながら質問だけを変えることができ、再現性が向上します。

テンプレートを使わない場合との比較

同じ内容を文字列連結で書くと次のようになります。

llm = ChatGoogleGenerativeAI(model="gemini-2.5-flash", api_key="API KEYを入力")

role = "スポーツ栄養士"
tone = "科学的"
format = "簡潔な3つの箇条書き"
question = "ダイエット中でも筋肉を落とさない食事の工夫は?"

prompt = f"あなたは{role}です。回答は{tone}で、出力形式は{format}です。\n質問: {question}"

result = llm.invoke(prompt)
print(result.content)

この書き方だと、要素を追加・変更するたびに文字列全体を直す必要があり、system と human の役割構造も崩れやすくなってしまいます。固定部分と可変部分の区別がつきにくく、プロンプトの形が一定せず、結果の再現性も下がってしまう点が課題です。

安定した出力と再利用性を実現するには、PromptTemplateを使ってプロンプトを構造化する設計が効果的です。

PromptTemplateの応用

1. 出力形式を制御

PydanticOutputParser​ を使うと、AIの出力をJSON構造に固定できます。この方法を使えば、「AIが返すデータの形」を決めておけるため、システム側での処理が安定します。

from pydantic import BaseModel, Field
from langchain_core.output_parsers import PydanticOutputParser
from langchain_core.prompts import ChatPromptTemplate
from langchain_google_genai import ChatGoogleGenerativeAI

class HealthAdvice(BaseModel):
    topic: str = Field(..., description="健康トピック名")
    tips: list[str] = Field(..., description="アドバイスを3つ")
    
llm = ChatGoogleGenerativeAI(model="gemini-2.5-flash", api_key="API KEYを入力")
parser = PydanticOutputParser(pydantic_object=HealthAdvice)
prompt = ChatPromptTemplate.from_template(
    "トピック: {topic}\nについて、科学的根拠に配慮し一言で回答してください。\n"
    "JSON形式で出力してください。\n"
    "{format_instructions}"
).partial(format_instructions=parser.get_format_instructions())
chain = prompt | llm | parser

result = chain.invoke({"topic": "睡眠の質向上"})
result.model_dump()

 

■ 出力結果

2. プロンプトテストの自動化

LangChainを使えば、プロンプトをテンプレート化して構造的に扱えるため、自動テストが容易になります。文字列を直書きする場合と違い、出力の形式や再現性を機械的に検証でき、品質を安定して保てます。

from langchain_google_genai import ChatGoogleGenerativeAI
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.output_parsers import StrOutputParser

llm = ChatGoogleGenerativeAI(model="gemini-2.5-flash", api_key="API KEYを入力")
prompt = ChatPromptTemplate.from_messages([
    ("system", "あなたは{role}です。簡潔に3つ箇条書きで答えてください。"),
    ("human", "{question}")
])
chain = prompt | llm | StrOutputParser()

def test_prompt():
    result = chain.invoke({"role": "トレーナー", "question": "短時間でできる筋トレ方法"})
    print(result)
    bullets = sum(line.strip().startswith(("*", "・", "-")) for line in result.splitlines())
    if bullets != 3:
        raise AssertionError(f"異常終了:箇条書きが{bullets}個")
    print("正常終了")

test_prompt()

 

■ 出力結果

3. プロンプトチェーンで処理を分割

複数のプロンプトを「チェーン」でつなげ、以下のように「生成 → 要約」の2段階処理を自動化できます。このように「分業型のプロンプト設計」をすることで、結果の一貫性と開発効率が大きく向上します。

from langchain_core.prompts import ChatPromptTemplate
from langchain_core.output_parsers import StrOutputParser
from langchain_google_genai import ChatGoogleGenerativeAI

llm = ChatGoogleGenerativeAI(model="gemini-2.5-flash", api_key="API KEYを入力")

# Step 1: 情報生成
prompt1 = ChatPromptTemplate.from_template("『{topic}』について詳しく説明してください。")

# Step 2: 要約
prompt2 = ChatPromptTemplate.from_template("以下の説明を読み、最も重要なポイントを1文で要約してください。\n\n{content}")

chain = (
    prompt1 | llm | StrOutputParser()
) | (
    prompt2 | llm | StrOutputParser()
)

result = chain.invoke({"topic": "筋トレが美容にもたらす効果"})
print(result)

 

■ 出力結果

 

さいごに

LangChainの PromptTemplate を活用することで、プロンプトの品質や再現性、保守性を着実に高めることができます。
プロンプトを構造的に整理し、テンプレートとして管理することで、誰でも同じ結果を再現しやすくなります。
さらに、出力形式の制御や処理の分割、外部連携などと組み合わせることで、より安定した仕組みを作ることも可能です。
こうした工夫を重ねることで、属人的なノウハウに頼らず、再利用しやすく継続的に改善できるプロンプト設計が実現できます。

お読みいただき、ありがとうございました。

はじめに

最近では、生成AIを自分のアプリケーションやシステムに組み込みたいと考える人が増えています。Googleの Gemini API を使えば、誰でも簡単に生成AIをAPIから呼び出しシステム化に活用することができます。また、Gemini APIには無料枠も用意されており、初めての方でも安心して試すことができます。

この記事では、Gemini APIの基本から、Pythonを使用した実際のコード例、応用的な使い方を紹介します。

Gemini APIとは?

GeminiはGoogleが提供する大規模生成AIモデルで、テキスト生成、コード補完、画像理解など幅広い用途に対応しています。
Gemini APIは、API Keyを取得するだけで、Pythonなどから簡単に呼び出すことができます。

特徴

  • 高精度な自然言語生成(文章・コード・説明など)
  • 無料利用枠あり(初期試用に最適)
  • シンプルなAPI構成で導入が容易

無料枠と料金体系

Gemini APIには、無料枠(Free Tier)が用意されており、個人や小規模プロジェクトであればほとんどコストをかけずに機能を試すことができます。
以下は2025年10月時点の無料枠の目安です。上限はモデル・地域・利用状況で変動する場合があるため詳細は公式ドキュメントを確認してください。

model主な特徴1分あたりリクエスト数(RPM)1分あたり入力トークン数(TPM)1日あたりリクエスト数(RPD)
Gemini 2.5 Pro高精度・汎用型。文章生成やプログラム補完に最適。5125,000100
Gemini 2.5 Flash高速処理タイプ。応答スピードを重視するアプリに。10250,000250
Gemini 2.5 Flash-Lite軽量モデル。小規模処理・チャットボットなどに適用しやすい。15250,0001,000

補足:

  • リクエスト数(Requests):APIを呼び出した回数、
  • トークン数(Tokens):モデルが処理するテキスト量の単位

 

セットアップ手順

GeminiをAPI利用する場合は、まずAPI Keyを取得し、コード上でキーを指定する必要があります。

API Keyの取得

まず、Google AI Studio にアクセスし、以下の手順でAPI Keyを取得します。

  1. 左メニューから 「Get API key」 をクリック
  2. 右上の「APIキーを作成」ボタンをクリック
  3. 「キー名」と「プロジェクト」を設定
    キー名:任意の名前を付ける
    プロジェクト:任意のプロジェクトを設定(なければ「Create Project」で作成)
  4. 表示されたキーをコピーして安全に保管(※GitHubなどに公開しないよう注意)

ライブラリのインストールと初期設定

以下のコードを実行して、Gemini APIのインストール、APIキーの入力、モデル選択を実施します。

%pip install -U -q 'google-genai>=1.0.0'

from google import genai
from google.genai import types

GEMINI_API_KEY = "APIキーを入力"
client = genai.Client(api_key=GEMINI_API_KEY)

MODEL_ID = "gemini-2.5-flash" # モデルを選択

 

基本のテキスト生成

Gemini APIは、以下のコードだけでテキスト生成を行うことができます。

response = client.models.generate_content(
    model=MODEL_ID,
    contents="リモートワークの生産性を上げるコツを教えて"
)
print(response.text)

 

出力例:

 

出力のカスタマイズ

Geminiの出力はパラメータ設定により、創造性や安定性を自在に調整できます。

response = client.models.generate_content(
    "リモートワークの生産性を上げるコツを一文で教えて",
    generation_config={
        "temperature": 0.2,
        "max_output_tokens": 512,
        "top_p": 0.9
    }
)
print(response.text)

 

主なオプション

パラメータ種別説明
temperaturefloat出力の創造性を制御(高いほど多様で、低いほど安定した出力)0.7
top_pfloat確率分布の上位を使用(高いほど多様で、低いほど安定した出力)0.9
max_output_tokensint出力の最大トークン数512

 

Gemini APIの応用例

Gemini APIは単純なテキスト生成だけでなく、Google検索結果の利用、出力形式の指定、ファイル入力など、より高度な操作にも対応しています。

 

Google検索の結果を利用

Googleでの検索結果を用いて最新情報を反映させたい場合は、外部ツール連携が有効です。

response = client.models.generate_content(
    model=MODEL_ID,
    contents="明日(2025/10/11)の東京都港区の予想最高気温と最低気温を教えて",
    config={
        "tools":[{ "google_search": {} }]
    }
)
print(response.text)

 

出力例:

DataFrameとして出力

結果はテキストだけでなく、構造化データとしても取得できます。受け取ったJSONはDataFrameに変換でき、生成されたJSONデータを直接Pandasで扱うことで、AIが作成した情報を簡単に分析や可視化に利用できます。

import pandas as pd
import json

response = client.models.generate_content(
    model=MODEL_ID,
    contents="日本、韓国、タイの人口と面積をJSON形式で出力して",
    config={
        "response_mime_type": "application/json"
    }
)
data = json.loads(response.text)
df = pd.DataFrame(data)
df

 

出力例:

ファイルの入力

Gemini APIは、以下のコードで画像や音声・動画、ドキュメントファイルを入力として扱うことができます。

myfile = client.files.upload(file="example.pdf")

response = client.models.generate_content(
    model=MODEL_ID,
    contents=[
        myfile,
        "このPDFを要約してください",
    ]
)

 

まとめ

Gemini API は、無料で・すぐに・簡単に使える生成AIプラットフォームです。
無料枠でも十分に実用レベルの機能を体験できるので、まずは触ってみるのがおすすめです。
また、Gemini APIは、Python以外の言語(JavaScriptやGoなど)からも利用できるため、様々な開発環境に組み込みやすい点も魅力です。
生成AIを自社システムや個人開発に取り入れたいエンジニアにとって、Gemini APIは非常に有用な選択肢です。

お読みいただきありがとうございました。

Learn how we helped 100 top brands gain success