ハルシネーション(Hallucination)

語源は「幻覚」【=ハルシネーション(Hallucination英辞郎 on the WEBより】

ハルシネーションとは、人工知能(AI)がウソをついてしまうことです。そのようすは、
まるで、まぼろしを見ているように 本当のことを言っているように回答してしまうことです。

ハルシネーションとは、人工知能(AI)が事実に基づかない情報を生成する現象のことです。まるでAIが幻覚(=ハルシネーション)を見ているかのように、もっともらしい嘘(事実とは異なる内容)を出力するため、このように呼ばれています。
OpenAIのChatGPTやGoogle Bardのような会話型AIサービスでは、ユーザーの質問に対してAIが回答しますが、どのようなデータに基づき回答されたのかが分からない場合、それが真実なのか嘘なのか、ユーザーが判断することは困難です。ハルシネーションは、会話型AIサービスの信頼性に関わる問題であり、この問題を解消するために様々な研究が進められています。

①Meta(Facebook)の科学用大規模言語モデル「Galactica」における事例

Metaは、2022年11月15日に、論文、教科書、百科事典など4800万件以上のデータを使い学習させた科学用言語モデル「Galactica」のデモを一般公開しましたが、2日後に公開を取りやめました。Galacticaは、ユーザーが質問をすると、その質問に関連する論文の要約を回答したり、入力されたプログラムや数式についてその意味を説明していました。しかし、入力される質問が明らかに非科学的な内容であるにもかかわらず、でたらめな回答を生成するケースがユーザーから数多く報告されました。
科学的な質問に対して回答するときにまず求められることは、その回答が真実であるかどうかです。Galacticaのハルシネーションは、その基本要件を満たせなかったため大きな問題となり、短期間でデモの一般公開が中止になってしまいました。ただし、研究者向けには、この言語モデルを公開しています。

②Googleの会話型AIサービス「Bard」における事例

Googleは、2023年2月6日に会話型AIサービス「Bard」の発表を行いました。Bardは、同社が開発した大規模言語モデルLaMDA(Language Model for Dialogue Applications)をベースにしたもので、先行するOpenAIのChatGPTに対抗するサービスとして、大きな注目を集めていました。しかし、Bardを紹介するデモ動画の中に、ハルシネーションに該当する現象が発生していました。
具体的には、「ジェームズ・ウェッブ宇宙望遠鏡の新発見について、9歳の子どもに教えてあげられる事は?」という質問に対するいくつかの回答の中に、「太陽系の外の惑星の写真を初めて撮影した」という回答がされていました。実際は、ヨーロッパ南天天文台が、2004年にチリの超大型望遠鏡で撮影していたことが分かり、Bardの回答の正確性にネガティブな印象を与える結果になってしまいました。

コメント

タイトルとURLをコピーしました