リコーは12月25日、大規模言語モデル(LLM)が生成する有害情報を検出するための新しい「セーフガードモデル」の開発を発表しました。このアップデートは、従来の入力フィルタリングにとどまらず、問題のあるLLMの出力を監視・ブロックすることで、エンタープライズAI導入のための多層的なガードレールアーキテクチャを構築し、ジェネレーティブAIの安全性を大きく進化させるものです。ジェネレーティブAIの利用が各業界で拡大するにつれ、誤情報、データ漏洩、差別、不適切なコンテンツに対する懸念が高まっています。リコーの発表は、こうしたリスクに正面から取り組むものです。特に日本では、AIシステムに対する企業のニーズが高まっています。単に強力なだけでなく、信頼性が高く、監査が可能で、ビジネスや規制のニーズに沿ったシステムを求めています。プロンプト・フィルタリングからフルスタックAIセーフティへ これまでほとんどのガードレール・システムは、有害なプロンプトを特定する前に...
アカウントにサインインする