日本の企業や行政機関は、世界的に見てもAI導入に最も慎重な組織の一つです。それには十分な理由があります。厳格なデータ保護規制、機密情報に対する高い感度、そして公的機関データの重要性から、外部APIへのクエリ送信が許容できない選択肢であるケースが多くあります。
パブリックLLM APIの問題点
従業員が文書をパブリックAIサービスに送信すると、その文書は組織の外に出ます。利用規約によっては、将来のモデル学習に使用される可能性があります。サポートスタッフによるレビューや、外国政府の法的要請の対象になる可能性もあります。
以下の情報を扱う組織にとって、これは許容できないリスクです:
- 個人情報(個人情報の保護に関する法律の対象)
- 機密性の高い政府情報
- 独自の経営戦略
- 医療・財務記録
inGPTのアプローチ
inGPTは、大規模言語モデルを完全に自社インフラ内に展開します。モデルはオンプレミスまたはお客様が管理するプライベートクラウド環境で動作します。文書、クエリ、レスポンスはすべてネットワーク内に留まります。
アーキテクチャには以下が含まれます:
- エンタープライズ向けにファインチューニングされたオープンソースLLM
- 特定の文書に関する質問に正確に回答するためのRAG(検索拡張生成)
- 既存システムとのアクセス制御連携のための標準的なエンタープライズ認証(SSO、LDAP)
主なユースケース
日本企業・自治体との取り組みで最も多く見られるユースケースは以下の通りです:
- ポリシー文書へのQ&A — 文書を外部に出すことなく、AIを使って従業員の質問に回答
- 議事録の要約 — 社内ネットワーク内で議事録から構造化されたノートを自動生成
- 調達分析 — 過去の契約・ベンダー記録を横断的に分析し、パターンとリスクを特定
- eKYC支援 — AI支援レビューで提出書類を規制要件と照合
始め方
プライベートAIシステムの展開は複雑に聞こえますが、過去2年間でかなりアクセスしやすくなりました。開始前に答えるべき主な質問は:
- モデルはどこで動かすか?(オンプレミスのGPUサーバー、またはプライベートクラウドVPC?)
- 最初にインデックス化する文書は何か?
- 誰がアクセスする必要があり、現在のアクセス制御はどうなっているか?
inGPTが貴組織に適しているかどうかについて議論したい場合は、お問い合わせください。