Rebeka letter

Era wyszukiwarek AI z halucynacjami? Problem „halucynacji” w wyszukiwarkach opartych na sztucznej inteligencji

  • Język oryginalny: Koreański
  • Kraj: Wszystkie krajecountry-flag
  • TO

Utworzono: 2024-04-24

Utworzono: 2024-04-24 11:01


Czytając ten artykuł, natykamy się na fragment "Podniesiono kwestię problemu halucynacji (omamy), co sprawia, że trudno jest w pełni mu zaufać".

Era wyszukiwarek AI z halucynacjami? Problem „halucynacji” w wyszukiwarkach opartych na sztucznej inteligencji

iClickart

Halucynacja

Zjawisko, w którym wyszukiwarka generuje informacje, które w rzeczywistości nie istnieją lub przedstawia informacje niezgodne z prawdą


Generatywne wyszukiwarki oparte na sztucznej inteligencji zyskują na popularności, jednak borykają się z problemem "halucynacji".

Oznacza to, że wyszukiwarka generuje informacje, które w rzeczywistości nie istnieją lub przedstawia informacje niezgodne z prawdą.

Można to uznać za poważny problem, ponieważ dostarcza użytkownikom informacji wprowadzających w błąd i obniża wiarygodność wyników wyszukiwania.


  • Przykłady rzeczywistych przypadków "halucynacji" w wynikach wyszukiwania


Pytanie: "Jaka jest stolica Francji?"

Błędna odpowiedź: "Stolicą Francji jest Berlin." (W rzeczywistości stolicą jest Paryż.)

Pytanie: "Czy na powierzchni Księżyca występuje woda?"

Błędna odpowiedź: "Tak, na powierzchni Księżyca występuje obfitość wody." (W rzeczywistości na powierzchni Księżyca nie występuje woda w stanie ciekłym.)


  • Jakie są przyczyny halucynacji w wynikach wyszukiwania?


Uważa się, że problem halucynacji w generatywnych wyszukiwarkach opartych na sztucznej inteligencji wynika ze złożonego oddziaływania różnych czynników.

Jeśli dane treningowe są obciążone stronniczością, wyszukiwarka może odzwierciedlać te stronnicze informacje i generować nieprawidłowe wyniki.

Generatywne modele sztucznej inteligencji mają bardzo złożoną strukturę, co sprawia, że w procesie uczenia się łatwo o błędy.

Obecnie stosowane wskaźniki oceny generatywnych wyszukiwarek opartych na sztucznej inteligencji opierają się głównie na zadowoleniu użytkownika lub współczynniku klikalności.

Jednak te wskaźniki nie odzwierciedlają dokładności informacji, przez co często nie są w stanie odpowiednio ocenić problemu halucynacji.


W celu rozwiązania tego problemu podejmowane są różne działania, takie jak ulepszanie struktury modelu uczenia się oraz opracowywanie nowych wskaźników oceny, które uwzględniają dokładność informacji.

Słowami niektórych, generatywne wyszukiwarki oparte na sztucznej inteligencji, które "czasami bez mrugnięcia okiem kłamią", to technologia we wczesnej fazie rozwoju, ale o ogromnym potencjale.

Jednak na obecnym etapie " weryfikacja poprawności informacji" jest niezbędna, dlatego potrzebne jest rozsądne korzystanie z nich.


Komentarze0