研究について

高信頼・高性能分散AI管理研究開発ユニット(DREAM)

KEYWORD
  • 深層学習
  • AI
  • セキュリティ
  • 計算基盤
  • RAG
  • プライバシー保護と信頼性を両立するAI基盤の構築と分散学習技術の高度化

高信頼・高性能分散AI管理研究開発ユニット(DREAM)は、未来都市における安全・信頼・持続可能なAI社会の実現を目指し、深層学習・機械学習・暗号技術・分散型識別技術を融合した基盤技術の研究を進めています。連合学習や生成AIといった次世代技術を支えるセキュアな計算・通信インフラを設計し、医療・教育・都市サービスなど多様な分野への社会実装を視野に入れています。

研究スタッフ

  • ユニット長・教授

    塩本 公平

    コンピュータネットワーク、データ科学

  • 准教授

    林 正博

    信頼性、セキュリティ

研究紹介

ユニットの役割・目的

本研究ユニットでは、連合学習・準同型暗号・分散型ID(DID)などの基盤技術を組み合わせ、セキュアかつスケーラブルなAI基盤の設計・実装・評価を行う。データを持ち出さずに安全に学習を進めるためのプロトコル設計、暗号化されたままのモデル集約、GPUクラスタによる高速分散推論などを研究の柱とし、医療画像など高プライバシー領域への応用も視野に入れた実践的かつ信頼性重視のAIインフラ技術を確立する。

テーマ1:セキュア連合学習プロトコルとDID認証基盤の構築

役割・目的

多拠点連携によるAI学習環境において、クライアントの真正性保証と安全な通信手順の確立は必須である。本研究では、DID(分散型識別子)を活用し、セキュアで改ざん耐性のある連合学習プロトコルを設計・実装する。

研究項目

  • ・DIDによる識別子生成・鍵管理・ブロックチェーン登録
  • ・オンボーディングと通信手順

技術の特徴

DIDは公開鍵に対応付けられた識別子であり、各学習ノードが自身のアイデンティティを分散的にかつ検証可能に管理できる。モデルや勾配といった学習データはオフチェーンの暗号化ストレージで管理され、メタデータのみブロックチェーンに記録する構成を採用している。

テーマ2:準同型暗号によるプライバシー保護型AI学習基盤の設計

役割・目的

AIモデルの学習・集約において、データや勾配が暗号化されたまま計算できることはプライバシー保護とセキュリティの観点で非常に有効である。本テーマでは、CKKS方式の準同型暗号を用い、復号不要のモデル集約基盤を実装・評価する。

研究項目

  • ・CKKSの理論的解析(RLWE、エンコード、Rescaling)
  • ・TenSEALライブラリによる実装と最適化
  • ・計算コスト・精度劣化・再スケーリングによる影響の評価

技術の特徴

CKKS方式は、実数値の加算・乗算を近似的に保持したまま暗号演算を可能とする。TenSEALを用いてベクトル形式のパラメータの暗号化・演算・復号を行い、暗号空間内での連合学習モデル集約を実現。性能評価では、行列サイズや暗号化深度に応じた計算時間、暗号膨張率、精度劣化の実測値を取得。さらに、BootstrapやRescalingのタイミング調整が精度と性能のトレードオフに大きく影響することを明らかにした。今後はCKKS-SIMDやTFHEとの比較や、HE対応ハードウェアとの連携も視野に入れる。

テーマ3:モデル勾配リーク耐性の定量評価と防御設計

役割・目的

連合学習では、モデル勾配を通じて元の訓練データが再構成される「勾配リーク」攻撃のリスクがある。本研究では、医療画像を含む実データに対する再構成攻撃を実施し、防御性能を定量評価する。

研究項目

  • ・勾配情報からの画像再構成アルゴリズム(gradient inversion)

技術の特徴

ResNetモデルを用い、各クライアントの勾配から画像再構成を行い、SSIMが0.6を超える再現度が得られるケースを確認。ランダム初期化や勾配ノイズの条件により攻撃成功率が変動することも実証。

テーマ4:生成AIとGPUクラスタによる信頼性の高い知識統合基盤の構築

役割・目的

大規模モデルを用いた知識生成(RAG:Retrieval-Augmented Generation)では、検索・生成・ベクトル処理を統合した計算基盤が求められる。本研究では、GPUクラスタを活用して、スケーラブルかつ信頼性のある生成AI推論環境を設計・構築する。

研究項目

  • ・大規模深層学習モデルの分割・推論評価
  • ・NVMe-over-TCP、RoCEによるストレージ・通信分離
  • ・RAG/ LLMを活用した学術情報検索基盤(論文RAG)

技術の特徴

RAGにおけるトークン長、データベース規模、GPUリソース使用率との関係を計測し、Max Tokenが増えてもメモリ使用量は限定的であるが、検索遅延は線形増加するなどの特性を把握。モデル分割による推論負荷分散や、GPU間の通信経路最適化も検討中。将来的には、研究支援・医療説明・法制度文書解釈などへの展開を目指す。

ページトップへ戻る