- '국민포털' 이길 수 있을까…'네이버 vs 구글' AI 검색 승자는?
- 생성형 인공지능(AI)를 앞세운 포털 업계 기술 경쟁이 한창이다. 네이버는 생성형 AI 기술을 이용해 검색 품질을 끌어올렸고 구글도 자사 웹 브라우저에서 AI 챗봇을 손쉽게 이용할 수 있는 기능을 시범 도입해 점유율
この記事を読んでいると、「幻覚(ハルシネーション)の問題が提起され、そのまま信頼するには無理があった」という箇所が出てきます。
iClickart
ハルシネーション
検索エンジンが実際には存在しない情報を生成したり、事実と異なる情報を提示したりする現象
生成AI検索エンジンが注目を集めていますが、このような検索エンジンは「ハルシネーション」という問題に直面しています。
これは、検索エンジンが実際には存在しない情報を生成したり、事実と異なる情報を提示したりする現象を意味します。
ユーザーに誤解を与える可能性のある情報を提供し、検索結果の信頼性を低下させる深刻な問題と言えるでしょう。
- 実際に発生した「検索結果の幻覚」事例
質問:「フランスの首都はどこですか?」
誤った回答:「フランスの首都はベルリンです。」(実際の首都はパリ)
質問:「月面に水は存在しますか?」
誤った回答:「はい、月面には豊富な水が存在します。」(実際には月面には液体の水は存在しません)
- 検索結果が幻覚を見せる理由は何か?
生成AI検索エンジンのハルシネーション問題は、様々な要因が複合的に作用して発生するとされています。
学習データに偏りがある場合、検索エンジンは偏った情報を反映して誤った結果を生成する可能性があります。
生成AIモデルは非常に複雑な構造を持つため、学習過程でエラーが発生しやすいです。
現在使用されている生成AI検索エンジンの評価指標は、主にユーザー満足度やクリック率などを基にしています。
しかし、これらの指標は情報の正確性を反映していないため、ハルシネーション問題を適切に評価できていないケースが多いです。
問題を解決するために、学習モデルの構造を改善したり、情報の正確性を反映する新しい評価指標を開発したりするなど、様々な対策が模索されています。
ある人の表現を借りれば、「時々、目を一つも瞬かずに嘘をつく」生成AI検索エンジンは、まだ初期段階の技術ですが、計り知れない潜在力を持っています。
しかし、現時点では「正確な事実を確認するチェック過程」が必ず必要な段階であるように思われますので、賢明な利用が求められます。
コメント0