日本の企業や行政機関は、世界的に見てもAI導入に最も慎重な組織の一つです。それには十分な理由があります。厳格なデータ保護規制、機密情報に対する高い感度、そして公的機関データの重要性から、外部APIへのクエリ送信が許容できない選択肢であるケースが多くあります。

パブリックLLM APIの問題点

従業員が文書をパブリックAIサービスに送信すると、その文書は組織の外に出ます。利用規約によっては、将来のモデル学習に使用される可能性があります。サポートスタッフによるレビューや、外国政府の法的要請の対象になる可能性もあります。

以下の情報を扱う組織にとって、これは許容できないリスクです:

  • 個人情報(個人情報の保護に関する法律の対象)
  • 機密性の高い政府情報
  • 独自の経営戦略
  • 医療・財務記録

inGPTのアプローチ

inGPTは、大規模言語モデルを完全に自社インフラ内に展開します。モデルはオンプレミスまたはお客様が管理するプライベートクラウド環境で動作します。文書、クエリ、レスポンスはすべてネットワーク内に留まります。

アーキテクチャには以下が含まれます:

  • エンタープライズ向けにファインチューニングされたオープンソースLLM
  • 特定の文書に関する質問に正確に回答するためのRAG(検索拡張生成)
  • 既存システムとのアクセス制御連携のための標準的なエンタープライズ認証(SSO、LDAP)

主なユースケース

日本企業・自治体との取り組みで最も多く見られるユースケースは以下の通りです:

  1. ポリシー文書へのQ&A — 文書を外部に出すことなく、AIを使って従業員の質問に回答
  2. 議事録の要約 — 社内ネットワーク内で議事録から構造化されたノートを自動生成
  3. 調達分析 — 過去の契約・ベンダー記録を横断的に分析し、パターンとリスクを特定
  4. eKYC支援 — AI支援レビューで提出書類を規制要件と照合

始め方

プライベートAIシステムの展開は複雑に聞こえますが、過去2年間でかなりアクセスしやすくなりました。開始前に答えるべき主な質問は:

  • モデルはどこで動かすか?(オンプレミスのGPUサーバー、またはプライベートクラウドVPC?)
  • 最初にインデックス化する文書は何か?
  • 誰がアクセスする必要があり、現在のアクセス制御はどうなっているか?

inGPTが貴組織に適しているかどうかについて議論したい場合は、お問い合わせください