3 使用可能ツールの確認

目次

使用可能ツールの確認:公務に適合する生成AIツールの選定

「業務内容の洗い出し・ゴール設定」の段階で、私たちは「何のために生成AIを使うのか(ゴール)」、そして「どの業務のどの部分にAIを適用したいのか」を明確にしました。

生成AIツールは日々進化し、多種多様なものが登場しています。しかし、公務の現場で利用する際には、一般的なツール選定基準に加えて、「情報セキュリティ」「個人情報保護」「機密情報管理」「説明責任」「費用対効果」といった、公務特有の厳しい要件を満たす必要があります。
この章では、これらの点を踏まえつつ、公務に適合する生成AIツールをどのように確認・選定していくかを詳細に解説します。

1. なぜ「使用可能ツールの確認」が重要なのか?:公務における特殊性とリスク管理

民間企業であれば、最新の便利なツールを比較的自由に試用・導入できるかもしれません。
しかし、公務においては、そのツールの選定一つが、市民の信頼、情報セキュリティ、法的遵守、そして税金の適切な利用といった、極めて重要な要素に直結します。

公務におけるツール選定の重要性

  1. 情報セキュリティの確保
    市民の個人情報、行政内部の機密情報、重要政策に関する情報など、公務で取り扱う情報は極めて高いセキュリティレベルが求められます。一般的なAIツールでは、入力したデータが学習データとして利用されたり、外部に漏洩したりするリスクがゼロではありません。
  2. 個人情報保護とプライバシーの確保
    個人情報保護法をはじめとする法令遵守は絶対条件です。AIツールに個人情報を入力する際のリスクを最小限に抑える仕組みや、匿名化・仮名化の徹底が求められます。
  3. 法的・制度的制約の遵守
    地方自治法、各種ガイドライン、各自治体独自のセキュリティポリシーなど、公務員が遵守すべき法的・制度的制約は多岐にわたります。これらの制約をクリアできるツールであるかを確認する必要があります。
  4. 説明責任の担保
    AIが生成した情報や判断を元に行政サービスを提供する場合、その根拠やプロセスについて市民や議会に対して説明責任を果たす必要があります。ツールの透明性や信頼性は、その前提となります。
  5. 費用対効果と持続可能性
    税金を投入して導入する以上、そのツールが本当に業務改善や市民サービス向上に寄与し、持続的に利用可能であるかという費用対効果の観点も重要です。

これらの理由から、公務における生成AIツールの選定は、単なる機能比較に留まらず、リスク管理と法的遵守を最優先に考える必要があります。

2. 公務で利用可能な生成AIツールの種類と特徴

現在、公務において現実的に利用が検討されている生成AIツールは、大きく以下のカテゴリーに分けられます。

(1) 政府機関・自治体向けに提供されるセキュアなAIサービス

多くの自治体や省庁が、情報漏洩リスクを最小限に抑えるため、専用の環境や契約モデルで提供されるAIサービスの利用を始めています。

  • Microsoft Azure OpenAI Service
    • 特徴: Microsoftが提供するクラウドプラットフォーム「Azure」上で、OpenAIのGPTシリーズ(GPT-3.5、GPT-4など)を利用できるサービス。最大の特長は、入力したデータがOpenAIの学習データとして利用されないことが保証されている点です。また、Azureの強力なセキュリティ基盤上で運用されるため、高度なセキュリティ対策が施されています。
    • 公務における適合性: 情報セキュリティ要件が厳しく、個人情報や機密情報を扱う業務での利用に適しています。多くの自治体や省庁で導入が進められており、既存のMicrosoft製品(Office 365など)との連携も比較的容易です。
    • 考慮点: 導入コストや運用コストが通常の一般向けサービスよりも高くなる傾向があります。利用開始までの手続きや、環境構築に一定の専門知識と時間が必要です。
  • Google Cloud Vertex AI (Generative AI on Vertex AI)
    • 特徴: Google Cloudが提供するAIプラットフォーム「Vertex AI」上で、Googleの生成AIモデル(Geminiなど)を利用できるサービス。こちらも入力データがGoogleの学習データとして利用されないことが保証されており、Google Cloudの堅牢なセキュリティ基盤上で提供されます。
    • 公務における適合性: Microsoft Azure OpenAI Serviceと同様に、高度なセキュリティ要件を持つ公務環境に適しています。Google Workspace(旧G Suite)を既に利用している組織であれば、連携を考慮しやすいでしょう。
    • 考慮点: 同様に導入コストや運用コストがかかり、利用開始には専門知識が必要です。
  • 国産クラウドベンダーによるAIサービス
    • 特徴: 日本国内のクラウドベンダーが、セキュアな環境で提供する生成AIサービス。国内法規への対応や、日本語に特化したチューニングが期待できる場合があります。
    • 公務における適合性: 国内の法的・制度的要件への対応が迅速であることが期待され、サポート体制も日本語で充実している可能性が高いです。
    • 考慮点: 提供されるモデルの種類や性能は、グローバルベンダーに比べて限定的である場合があります。

(2) 特定用途に特化したAIツール(機能限定型)

特定の業務に特化し、利用範囲を限定することでリスクを低減しつつ導入できるツールもあります。

  • 社内(自治体内)限定のチャットボット: 庁内のFAQや業務マニュアルを学習させ、職員からの問い合わせに自動で回答するシステム。外部のAIサービスを利用せず、庁内ネットワーク内で完結させることでセキュリティリスクを低減できます。
  • 文書要約・校正ツール: 外部サービスでも、機密情報を含まない公開情報(例:広報資料、公開議事録)の校正や要約に限定して利用を検討する。この場合でも、利用規約やプライバシーポリシーの確認は必須です。

(3) 一般公開されているコンシューマー向けAIサービス(注意が必要)

ChatGPT、Google Gemini、Copilot、Claudeなど、一般向けに広く公開されているサービスです。

  • 特徴: 手軽に利用開始でき、高い性能を持つものが多い。
  • 公務における適合性: 個人情報や機密情報を入力することは、原則として推奨されません。これらのサービスは、入力されたデータがモデルの学習に利用されたり、サーバーに保存されたりする可能性があるため、情報漏洩のリスクが非常に高いです。
  • 考慮点:
    • 情報の種類を厳しく制限する: 機密性・個人情報を含まない公開情報(例:一般論の調査、アイデアのブレインストーミング、公開されているウェブサイトの要約など)に限定して利用する場合のみ、個人の判断と責任において利用を検討できます。
    • 組織のポリシーを遵守する: 多くの自治体では、これらの一般向けサービスの業務利用について、ガイドラインや禁止事項を設けています。必ず所属組織のルールを確認し、遵守してください。
    • 情報源の確認: AIが生成した情報は、事実と異なる「ハルシネーション(幻覚)」を起こす可能性があります。生成された情報を鵜呑みにせず、必ず公式な情報源と照らし合わせ、ファクトチェックを行う必要があります。

3. ツールの選定基準と確認事項

上記のツール群から、自組織のゴールと業務フローに最適なものを選択するためには、以下の基準と確認事項を網羅的に検討する必要があります。

  1. セキュリティ要件:
    • 入力データの取り扱い: 入力したデータがAIの学習に利用されないか、サーバーに保存される期間はどうか。
    • 通信の暗号化: データ通信は適切に暗号化されているか。
    • アクセス制御: 不正アクセス対策、認証基盤はどうか。
    • データ保存場所: サーバーが国内にあるか、海外にあるか(各国のデータ保護法の影響)。
    • 第三者認証: ISO 27001(情報セキュリティマネジメントシステム)などの国際認証を取得しているか。
  2. 機能と性能:
    • タスク適合性: 業務フローで洗い出した特定のタスクを、効率的に実行できるか。
    • 生成品質: テキスト、画像などの生成物の品質はどうか。
    • 日本語対応: 日本語の自然な理解と生成が可能か。公務で使う専門用語や硬い文体への対応力はどうか。
    • 連携性: 既存の庁内システム(文書管理システム、グループウェアなど)と連携できるか。
  3. コスト:
    • 初期導入費用: システム構築やセットアップにかかる費用。
    • 運用費用: 月額利用料、API利用料、従量課金など。
    • 隠れたコスト: 研修費用、サポート費用など。
    • 費用対効果: 導入費用に見合うだけの業務改善効果が見込めるか。
  4. サポート体制:
    • 技術サポート: トラブル発生時の対応、日本語サポートの有無。
    • 運用サポート: 導入後の活用支援、研修プログラムの有無。
    • 情報提供: 最新のアップデート情報や活用事例の提供。
  5. 契約内容・利用規約:
    • データの所有権: 生成されたコンテンツの所有権は誰にあるか。
    • 責任範囲: サービス提供者と利用者の責任範囲。
    • SLA (Service Level Agreement): サービスの稼働率や障害時の対応に関する保証。
    • 機密保持契約(NDA): 機密情報の取り扱いに関する契約。
  6. 拡張性と将来性:
    • モデルの更新頻度: AIモデルが継続的に改善・更新されるか。
    • API提供の有無: 将来的に独自のシステムと連携する可能性。
    • 導入事例: 他の政府機関や自治体での導入実績の有無。

4. 組織内のルールとガイドラインの確認

最も重要なのは、所属する自治体や省庁で既に定められている、あるいは策定中の「AI利用に関するガイドライン」や「情報セキュリティポリシー」を必ず確認し、遵守することです。

多くの自治体では、生成AIの試行的な導入や利用に関するガイドラインを策定し始めています。これには、利用可能なツールの指定、入力禁止情報のリスト、生成結果の確認体制、個人利用の範囲などが明記されている場合があります。このガイドラインに沿ったツール選定と利用が大前提となります。

もし、明確なガイドラインがない場合は、情報システム部門や法務部門と連携し、必要な承認プロセスを踏むことが不可欠です。

5. 導入前のアセスメントと評価

最終的なツール選定の前に、以下の点を考慮したアセスメント(評価)を行うことを推奨します。

  • 実証実験(PoC: Proof of Concept): 小規模な業務で実際にAIツールを試用し、その効果と課題を検証します。特定の部署や限られた職員でテスト運用し、フィードバックを収集します。
  • リスクアセスメント: 導入によって想定されるリスク(情報漏洩、誤情報の生成、費用超過など)を洗い出し、それに対する対策を検討します。
  • 法的・倫理的チェック: 法務部門や専門家と連携し、導入するツールの法的適合性や倫理的な問題がないかを確認します。

まとめ

何よりも先に、所属する省庁や自治体が定める「AI利用に関するガイドライン」や「情報セキュリティポリシー」を確認し、それを絶対に遵守してください。

・ルールが明確な場合:利用が許可されているツール、入力が禁止されている情報(個人情報、機密情報など)のリストに従います。
・ルールが不明確な場合:自己判断で利用せず、必ず情報システム部門や法務部門に相談し、正式な手続きを踏んでください。

「使用可能ツールの確認」は、単なるカタログスペックの比較ではありません。公務における生成AIの活用は、市民の信頼の上に成り立つものであり、その基盤となるのが「情報セキュリティ」と「法的遵守」です。

明確なゴール設定と業務フローの洗い出しに基づいて、公務の特殊性を深く理解した上で、最も安全で、最も効果的、そして費用対効果の高いツールを慎重に選定すること。この賢明な選択こそが、生成AIの力を最大限に引き出し、市民サービスの向上と効率的な行政運営を実現するための、決定的な一歩となるでしょう。

目次