- '국민포털' 이길 수 있을까…'네이버 vs 구글' AI 검색 승자는?
- 생성형 인공지능(AI)를 앞세운 포털 업계 기술 경쟁이 한창이다. 네이버는 생성형 AI 기술을 이용해 검색 품질을 끌어올렸고 구글도 자사 웹 브라우저에서 AI 챗봇을 손쉽게 이용할 수 있는 기능을 시범 도입해 점유율
Wanneer je dit artikel leest, kom je een passage tegen waarin wordt gezegd: 'Door de problematiek van hallucinaties (hallucinatie) werd het betwijfeld of de informatie zomaar te vertrouwen was'.
iClickart
Hallucinatie
Het fenomeen waarbij zoekmachines informatie genereren die in werkelijkheid niet bestaat of onjuiste informatie verstrekken.
Generatieve AI-zoekmachines trekken veel aandacht, maar deze zoekmachines worden geconfronteerd met het probleem van 'hallucinaties'.
Dit verwijst naar het fenomeen waarbij de zoekmachine informatie genereert die in werkelijkheid niet bestaat of onjuiste informatie verstrekt.
Dit kan leiden tot misverstanden bij gebruikers en de betrouwbaarheid van de zoekresultaten aantasten, wat een ernstig probleem kan worden genoemd.
- Voorbeelden van gevallen waarin 'hallucinaties' in zoekresultaten voorkwamen
Vraag: 'Wat is de hoofdstad van Frankrijk?'
Fout antwoord: 'De hoofdstad van Frankrijk is Berlijn.' (De werkelijke hoofdstad is Parijs.)
Vraag: 'Is er water op het maanoppervlak?'
Fout antwoord: 'Ja, er is veel water op het maanoppervlak.' (Er is geen vloeibaar water op het maanoppervlak.)
- Wat is de oorzaak van deze hallucinaties in de zoekresultaten?
Het probleem van hallucinaties bij generatieve AI-zoekmachines wordt naar verluidt veroorzaakt door een combinatie van verschillende factoren.
Als de trainingsdata bevooroordeeld is, kan de zoekmachine deze bevooroordeelde informatie weerspiegelen en onjuiste resultaten genereren.
Generatieve AI-modellen hebben een zeer complexe structuur, waardoor fouten tijdens het trainingsproces gemakkelijk kunnen optreden.
De huidige evaluatie-indicatoren voor generatieve AI-zoekmachines zijn voornamelijk gebaseerd op gebruikerstevredenheid en klikfrequenties.
Deze indicatoren geven echter geen weerspiegeling van de nauwkeurigheid van de informatie, waardoor hallucinatieproblemen vaak niet goed worden geëvalueerd.
Om dit probleem op te lossen, worden verschillende oplossingen onderzocht, zoals het verbeteren van de structuur van het trainingsmodel en het ontwikkelen van nieuwe evaluatie-indicatoren die de nauwkeurigheid van de informatie weerspiegelen.
Met de woorden van sommigen: 'Generatieve AI-zoekmachines die af en toe zonder te aarzelen leugens vertellen' bevinden zich nog in een vroeg stadium van ontwikkeling, maar hebben een enorm potentieel.
Maar voorlopig is het nog steeds noodzakelijk om een 'proces van controle op de juistheid van de feiten' uit te voeren, dus verstandig gebruik is vereist.
Reacties0