Googleは、大規模言語モデル(LLM)が抱える「幻覚」と呼ばれる問題、つまり事実と異なる情報を生成してしまう問題に対処するため、新たなモデル「DataGemma」を開発しました。DataGemmaは、Googleが構築した膨大な実世界のデータセットである「Data Commons…
生成AIチャットボットアプリケーションのセキュリティを確保するためには、認証、入力検証、通信、ログ記録などの対策が重要です。 認証、入力検証、通信、ログ記録などの対策を怠ると、セキュリティリスクにさらされます。 これらの対策を適切に実施するこ…
生成AIのRetrieval Augmented Generation(RAG)は、検索結果を要約して生成AIに渡すことで、生成AIの精度を高める手法です。 既存のRAGは、検索結果をそのまま生成AIに渡すため、時間がかかります。 本研究では、小さな生成AIモデルを使って検索結果を要約…
生成AIを搭載したアプリケーションは、2種類のプロンプトインジェクション攻撃を受ける危険があります。 信頼できない外部データと一緒に処理された場合に起きる間接攻撃は、AIの動作を乗っ取られてしまう可能性があります。 MicrosoftのAzure OpenAI Servic…
本記事では「OECD FRAMEWORK FOR THE CLASSIFICATION OF AI SYSTEMS」について原文を翻訳・意訳しながら日本語でまとめ、同フレームワークの理解を深めることを目的としています。原文はこちらからアクセスをお願いします。 どのようなフレームワークなのか …
本記事はOWASP Top 10 for LLM Applicationsを図を用いてなるべく超わかりやすく図解してみたものとなります。
本記事ではAIシステムのリスクやリスクの管理策のナレッジがつまったNISTのAI Risk Management Frameworkについて日本語でまとめました。