- '국민포털' 이길 수 있을까…'네이버 vs 구글' AI 검색 승자는?
- 생성형 인공지능(AI)를 앞세운 포털 업계 기술 경쟁이 한창이다. 네이버는 생성형 AI 기술을 이용해 검색 품질을 끌어올렸고 구글도 자사 웹 브라우저에서 AI 챗봇을 손쉽게 이용할 수 있는 기능을 시범 도입해 점유율
위 기사를 읽다 보면 "할루시네이션(환각) 문제가 제기되면서 그대로 신뢰하기에는 무리가 있었다"라는 대목이 나온다.
iClickart
할루시네이션
검색 엔진이 실제로는 존재하지 않는 정보를 만들어내거나, 사실과 다른 정보를 제시하는 현상
생성형 AI 검색 엔진들이 주목을 받고 있지만 이러한 검색 엔진들은 "할루시네이션"이라는 문제에 직면해 있다.
이는 검색 엔진이 실제로는 존재하지 않는 정보를 만들어내거나, 사실과 다른 정보를 제시하는 현상을 의미한다.
사용자들에게 오해의 소지가 있는 정보를 제공하고, 검색 결과의 신뢰성을 떨어뜨리는 심각한 문제라고 볼 수 있다.
- 실제로 발생했던 '검색 결과 환각' 사례 예시
질문 : "프랑스의 수도는 어디인가요?"
잘못된 답변 : "프랑스의 수도는 베를린입니다." (실제 수도는 파리.)
질문 : "달 표면에 물이 존재하나요?"
잘못된 답변 : "네, 달 표면에는 풍부한 물이 존재합니다." (실제 달 표면에는 액체 상태의 물이 존재하지 않는다.)
- 검색 결과가 환각을 보이는 이유는 뭘까?
생성형 AI 검색 엔진의 할루시네이션 문제는 다양한 요인이 복합적으로 작용하여 발생한다고 알려졌다.
학습 데이터에 편향이 존재하는 경우, 검색 엔진은 편향된 정보를 반영하여 잘못된 결과를 생성할 수 있다.
생성형 AI 모델은 매우 복잡한 구조를 가지고 있어, 학습 과정에서 오류가 발생하기 쉽다.
현재 사용되는 생성형 AI 검색 엔진의 평가 지표는 주로 사용자 만족도나 클릭률 등을 기반으로 한다.
하지만 이러한 지표는 정보의 정확성을 반영하지 못하기 때문에, 할루시네이션 문제를 제대로 평가하지 못하는 경우가 많다.
문제를 해결하기 위해서 학습 모델의 구조를 개선하고, 정보의 정확성을 반영하는 새로운 평가 지표를 개발하는 등 다양한 방안들이 모색되고 있다.
혹자의 표현을 빌려 "가끔 눈 하나 깜박하지 않고 거짓말을 내뱉는" 생성형 AI 검색 엔진은 아직 초기 단계의 기술이지만 엄청난 잠재력을 가지고 있다.
하지만 아직은 '정확한 사실을 확인하는 점검 과정'이 꼭 필요한 단계인 듯 하니 현명한 사용이 요구된다.
댓글0