스페인 발렌시아 폴리테크닉 대학교의 인공지능(AI) 연구팀은 대규모 언어 모델이 점점 더 크고 정교해질수록 사용자에게 답을 모른다고 인정할 가능성이 낮아지는 경향이 있다는 사실을 발견했습니다.
AI가 더 똑똑할수록 사용자에게 답을 모른다고 인정할 가능성이 낮아집니다. (AI 예시) |
Nature 저널에 게재된 연구에서 연구팀은 가장 인기 있는 AI 챗봇 3종의 최신 버전을 대상으로 반응성, 정확성, 사용자가 잘못된 답변을 찾아내는 능력 등을 테스트했습니다.
가장 인기 있는 세 가지 LLM인 BLOOM, LLaMA, GPT의 정확도를 테스트하기 위해 연구팀은 수천 개의 질문을 던지고 이전 버전의 동일한 질문과 답변을 비교했습니다. 또한 수학, 과학 , 단어 퍼즐, 지리 등 다양한 주제를 다루었을 뿐만 아니라 텍스트 생성이나 목록 정렬과 같은 기능도 구현했습니다.
이 연구는 몇 가지 주목할 만한 추세를 보여주었습니다. 챗봇의 전반적인 정확도는 새로운 버전이 나올 때마다 향상되었지만, 더 어려운 질문에 직면했을 때는 여전히 감소했습니다. 놀랍게도 LLM의 규모가 커지고 정교해질수록, 정답에 대한 자신의 능력에 대해 덜 개방적인 경향이 나타났습니다.
이전 버전에서는 대부분의 LLM이 사용자가 답을 찾을 수 없거나 추가 정보가 필요할 때 명확하게 알려주었습니다. 이와는 대조적으로, 최신 버전은 추측하는 경향이 더 강해 전체적으로 정답과 오답 모두 더 많은 답을 제공했습니다. 더욱 우려스러운 것은, 모든 LLM이 쉬운 질문에도 여전히 가끔씩 오답을 제공했다는 연구 결과가 나와 LLM의 신뢰도가 여전히 개선되어야 할 부분임을 시사합니다.
이러한 연구 결과는 AI 진화의 역설을 보여줍니다. 즉, 모델이 더욱 강력해지는 반면, 그 한계에 대한 투명성은 점점 낮아지고 있다는 것입니다.
이는 AI 시스템의 사용과 신뢰에 새로운 과제를 제기하며, 사용자는 더 신중해야 하고 개발자는 모델의 정확도뿐만 아니라 '자기 인식'을 개선하는 데 집중해야 합니다.
[광고_2]
출처: https://baoquocte.vn/cang-thong-minh-tri-tue-nhan-tao-cang-co-xu-huong-giau-dot-287987.html
댓글 (0)