IBM Data and AI
IBM watsonx Assistant: 対話型検索で生成AIによるイノベーションを推進
2023年11月10日
カテゴリー Data Science and AI | IBM Data and AI | IBM Watson Blog | 人工知能 | 技術動向・トレンド | 革新的テクノロジー | 顧客体験の最適化
記事をシェアする:
2023年10月10日 チャールズ・クインシー著 (読了時間5分)
生成AIはビジネス世界を席巻しています
世界中の組織が、企業でこのようなモデルを使用する際に内在するリスクとのバランスを取りながら、新たにAIのエキサイティングで、かつ最善の活用方法を理解しようとしています。予兆、トレーサビリティ、トレーニングデータ、知的財産権、スキル、コストなど、企業はこうしたモデルを実用化する上で、さまざまなリスクに対処しなければなりません。AIにより顧客や従業員の体験を変えることは大きな期待である一方で、こうしたモデルを導入しなければならないというプレッシャーは容赦ないものになっています。
道を拓く: 大規模言語モデル
生成AIの現在の焦点は、大規模言語モデル(LLM)に向けられています。このような言語ベースのモデルは、我々が”知識にアクセスする方法”と”知識を相互作用させる方法”、その両方において、新たな知識発見のパラダイムの到来を告げています。
従来、企業は、企業や顧客向けの知識データを活用し、顧客や従業員をサポートするために、エンタープライズ・サーチ・エンジンを利用していました。これらの検索エンジンは、キーワードと人間のフィードバックに依存しています。検索機能は、あらかじめ経路や答えが決まっていない「ロングテール」と呼ばれる質問をカバーすることで、初期のチャットボット展開において重要な役割を果たしていました。実際、IBM watsonx Assistantは、4年近く前からこの検索パターンの実現に成功していました。そして今、大規模言語モデルと生成AIを使って、さらに進化させることに興奮しているところです。
watsonx Assistantに対話型検索を導入
本日、watsonx Assistant の対話型検索の Beta 版を発表できることを嬉しく思います。
IBM Graniteの大規模言語モデルとエンタープライズ検索エンジンのWatson Discoveryを搭載した対話型検索は、ビジネス・コンテンツに基づいた対話型回答を拡張するように設計されており、お客様のAIアシスタントが結果を重視した対話を促進し、より迅速で正確な回答を顧客や従業員に提供することができます。対話型検索は、当社の拡張会話ビルダーにシームレスに統合させ、顧客や従業員が回答やアクションを自動化できるようにします。顧客がクレジットカードの特典を理解し、申請できるように支援することから、従業員に休暇制度に関する情報を提供し、休暇をシームレスに予約できるようにすることまでーー。
IBMは先月、信頼性と透明性を備えたビジネス・アプリケーションとワークフローへの生成AIの導入を加速するために設計された、IBM Researchの最新の基盤モデル・シリーズであるGraniteの一般提供を発表しました。このベータ版リリースにより、ユーザーは企業向けに特化したデータセットで事前に訓練された Granite 大規模言語モデル(LLM)を活用し、watsonx Assistant に適用することで、説得力のある包括的な質問と回答支援システムを迅速に構築することができます。対話型検索は、対話型AIアシスタントが処理するユーザーからの問合せの幅を広げることができるため、トレーニングに費やす時間を減らし、必要な人に知識を提供する時間を増やすことができます。
watsonx Assistant のプラスプランまたはエンタープライズプランのお客様は、対話型検索への早期アクセスをリクエストできるようになりました。対話型検索ベータ版への特別アクセス、または IBM のエキスパートによるデモのご予約は、IBM 担当者までお問い合わせください。
対話型検索は裏でどのように機能するのでしょう?
利用者がアシスタントに質問すると、watsonx Assistant はまず利用者をどのように支援するかを判断します。つまり、事前に組み込まれた会話をトリガーするか、対話型検索を行うか、人間のエージェントにエスカレーションするかを決定します。これは私たちの新しい変換モデルを使用して行われ、劇的に少ないトレーニングでより高い精度を発揮します。
対話型検索が始まると、成功するための基本的な2つのステップに頼ることになります。検索部分=可能な限り最も関連性の高い情報を見つける方法と、生成部分=大規模言語モデル(LLM)から最も豊かな返答を得るためにその情報をどのように構成するのが最適かです。そのいずれについても、IBM watsonx Assistant は、大規模言語モデルに情報を与えて再学習させる手間を省くために、ノー・コードですぐに使えるソリューションとしてパッケージ化された Retrieval Augmented Generation フレームワークを採用しています。ユーザーは、最新のビジネス文書やポリシーをアップロードするだけで、モデルが情報を取得し、更新されたレスポンスを返します。
検索部分については、watsonx Assistant が検索機能を活用して、ビジネス・ドキュメントから関連するコンテンツを検索します。IBM watsonx Discoveryは、文脈と意味を理解して情報を検索するセマンティック検索を可能にします。また、これらのモデルは言語を非常によく理解するため、ビジネス・ユーザーはトレーニングなしで、AIアシスタントがカバーできるトピックの量と回答の質を向上させることができます。セマンティック検索は、IBM Cloud Pak for Dataで今日から利用可能であり、今後数ヶ月のうちに、ソフトウェアやSaaSのデプロイメントとして実行するための設定可能なオプションとして利用できるようになります。
検索が完了し、検索結果が関連性の高い順に整理されると、情報はLLM(この場合はIBMのモデルGranite)に渡され、そのコンテンツに基づいた対話型の回答を合成して生成するために使われます。この回答はトレーサビリティ付きで提供されるため、企業やそのユーザーは回答の出典を確認することができます。その結果が、お客様の会社のコンテンツに基づいた、信頼できる文脈上のレスポンスなのです。
IBMでは、AIを責任を持って使用することの重要性を理解しており、お客様が対話型検索で同じことができるようにしています。企業や組織は、特定のトピックのみが認識される場合、機能を有効にすることができ、また、ロングテールの質問に対する一般的な予備手段として対話型検索を利用するオプションがあります。企業は、生成AIを使用するための企業ポリシーに基づいて、検索を使用する優先順位を調整することができます。また、対話型検索が使用されないように、特定のトピックが認識された場合に自動的に人間のエージェントにエスカレーションする「きっかけワード」も提供しています。
対話型検索の実例
実際のシナリオを見ながら、watsonx Assistantが対話型検索を活用して、ある銀行の顧客がクレジットカードを申し込むのをどのように支援するか見てみましょう。
例えば、ある顧客が銀行のアシスタントを開き、プラチナ・カードに申し込んだ場合、どのようなウェルカム・オファーを受けることができるかを尋ねたとしましょう。watsonx Assistantは、トランスフォーマーモデルを活用して利用者のメッセージを調べ、このトピックを扱うことができる事前に構築された会話フローに誘導します。アシスタントは、利用者からのメッセージから関連情報をシームレスかつ自然に取り出して必要な詳細を収集し、適切なバックエンド・サービスを呼び出して、ウェルカム・オファーの詳細を利用者に返すことができます。
申し込みの前に、2、3の質問をします。そして、そのカードがどのような特典を提供しているのか、もう少し詳しく尋ねてきます。ここでも、 watsonx Assistantは、その変換モデルを利用しますが、今回は、事前に構築された適切な会話がないため、対話型検索にルーティングすることを決定します。対話型検索は、銀行の知識文書に目を通し、ユーザーの質問にお答えします。
利用者は申し込みの準備ができたものの、この申し込みによってクレジット・スコアに影響が出ないかどうかを確認したいと考えているでしょう。アシスタントにこの質問をすると、アシスタントはこれを特別なトピックとして認識し、人間の担当者へエスカレーションします。IBM watsonx Assistantは、会話を簡潔な要約に凝縮して人間のエージェントに送ることができ、続いてエージェントが質問者の内容を素早く理解して、疑問を解決することができます。そして利用者は満足し、新しいクレジットカードを申し込むというわけです。
オープンイノベーションを牽引する対話型AI
IBMは、これまでも、そしてこれからも、オープンな戦略に取り組み、企業のニーズに最適な方法で顧客に展開オプションを提供していくつもりです。
IBM watsonx Assistant 対話型検索は、企業の検索機能と watsonx 上に構築された IBM ベースの 大規模言語モデル(LLM)を統合することで、さまざまなチャネルやタッチポイントで正確な回答を提供できる柔軟なプラットフォームを提供します。今日、私たちはこの対話型検索のベータ版を IBM Cloud 上で提供するとともに、watsonx Discovery によるセマンティック検索のためのセルフマネージド Cloud Pak for Data デプロイメント・オプションも提供しています。
今後数ヶ月のうちに、対話型検索の設定可能なオプションとして、ソフトウェアとSaaSの両方のデプロイメントにセマンティック検索を提供する予定です。
モデル構築の柔軟性を高めるために、企業は独自のデータをIBM 大規模言語モデル(LLM)に持ち込み、watsonx.aiを使用してこれらをカスタマイズしたり、対話型検索やその他のユースケースで使用するために、MetaのLlamaやHugging Faceコミュニティーのその他のサードパーティのモデルを活用したりすることもできるようになっています。
顧客サービスのための生成AI導入をお考えですか?
この新機能の詳細とデモをご覧になりませんか。対話型AIの機会を捉え担当者をサポートし、カスタマーエクスペリエンスを向上させている企業についてご紹介します。
本記事でご紹介している、IBMの対話型AIソリューションのご紹介
*本記事は、IBM USブログ”IBM watsonx Assistant: Driving generative AI innovation with Conversational Search“を抄訳し再編集したものです。
データ・ロードマップ
IBM Data and AI
生成AIによるビジネス革新は、オープンなデータストア、フォーマット、エンジン、製品指向のデータファブリック、データ消費を根本的に改善するためのあらゆるレベルでのAIの導入によって促進されます。 2023 オープン・フォー ...続きを読む
AIロードマップ
IBM Data and AI
自己教師学習された大規模なニューラル・ネットワーク、つまり基盤モデルは、AIの生産性とマルチモーダル機能を倍増します。推論と常識的な知識をサポートする、より一般的な形式のAIが登場します。 2023 基盤モデルが、自然言 ...続きを読む
Netezzaとwatsonx.dataによる生成AIのための新しいデータ統合
Hybrid Data Management, IBM Data and AI, Netezza...
注)以下の記事は英語版ブログ「Unify and share data across Netezza and watsonx.data for new generative AI applications」(2024年6 ...続きを読む