Vietnam.vn - Nền tảng quảng bá Việt Nam

세계 최고 AI 학회에서 두 명의 남학생이 연구 결과를 발표

VnExpressVnExpress12/02/2024

[광고_1]

호치민시 기술대학의 두 학생이 적대적 훈련 방법을 사용하여 AI가 새로운 데이터를 생성하도록 하는 연구 결과를 세계 최고의 AI 학회인 AAAI에서 발표했습니다.

Pham Khanh Trinh과 23세의 Le Minh Khoi가 AI가 동의어를 생성하도록 훈련하기 위한 다국어 모델에 대한 연구를 진행한 내용이 2월 말 캐나다 밴쿠버에서 개최된 AAAI-24 인공지능 컨퍼런스 문서에 발표되었습니다.

호치민시 공과대학교 컴퓨터공학부 부학장인 콴 탄 토(Quan Thanh Tho) 박사는 이를 칭찬할 만한 성과로 평가했습니다. 토 부학장은 AAAI가 컴퓨터 과학 및 인공지능 분야 학술 대회에서 연구자들과 전문가들로부터 최고 수준의 학술 대회로 평가받고 있으며, 올해 논문 게재 승인율은 23.75%로 매우 낮다고 밝혔습니다.

2023년 졸업 논문 심사 중인 민 코이와 칸 트린(가운데). 사진: 캐릭터 제공

2023년 졸업 논문 심사 중인 민 코이와 칸 트린(가운데). 사진: 캐릭터 제공

딥러닝과 자연어 처리에 대한 열정을 공유하는 Trinh과 Khoi는 대규모 언어 모델(LLM)을 연구하기로 했습니다. 두 사람 모두 LLM의 한계를 파악하고 개선하고자 했습니다.

Khanh Trinh은 사용자에게 정확하고 다양한 응답을 생성하기 위해서는 Chat GPT 또는 LLM이 방대한 양의 텍스트 데이터로 학습되어야 한다고 말했습니다. 두 소년은 힌디어, 카자흐어, 인도네시아어처럼 덜 인기 있는 언어의 경우, Chat GPT와 LLM이 예상치 못한 결과를 내는 경우가 많다는 것을 깨달았습니다. 이는 해당 언어에 대한 학습이 부족하거나 학습에 필요한 데이터가 충분하지 않기 때문입니다.

"왜 그 언어들의 '작은 리소스'를 활용하여 더 많은 텍스트 데이터를 생성하여 AI를 더욱 훈련시키는 건 어떨까요?" 두 남학생이 질문했습니다. 이를 통해 Trinh과 Khoi가 연구한 적대적 훈련 방법을 활용한 다국어 통역 모델인 LAMPAT(Low-rank Adaptation for Multilingual Paraphrasing using Adversarial Training) 모델이 탄생했습니다.

LAMPAT은 주어진 입력 문장에서 동의어를 생성하여 더 많은 텍스트 데이터를 생성할 수 있습니다. "적대적 학습" 설명자는 대규모 언어 모델을 학습하는 비교적 새로운 방법입니다. 입력 문장이 주어지면 기존 학습 방식에서는 애플리케이션이 출력 문장을 생성합니다. 하지만 적대적 학습을 사용하면 애플리케이션이 출력 문장에 주석을 달고 "적대적"으로 편집하여 더 많은 문장을 생성할 수 있습니다.

LAMPAT의 다국어 기능은 이 모델이 60개 언어를 동시에 통합한다는 점에 있습니다. 연구팀은 수집된 데이터 세트를 기반으로 LAMPAT이 동의어를 생성하도록 지속적으로 학습하고 있습니다. LAMPAT에서 생성된 텍스트 데이터는 LLM(언어 학습 모델) 학습에 계속 사용될 예정이며, 이를 통해 이 모델들은 동일한 콘텐츠에 대한 다양한 정보 표현 방식을 학습하여 정확도가 높은 다양한 응답을 제공할 수 있습니다. 팀 관계자는 이 기능을 통해 LAMPAT이 ChatGPT와 같은 애플리케이션에 통합되어 이 모델을 더욱 완벽하게 만들 수 있을 것으로 기대합니다.

또한, Chat GPT 또는 LLM 관련 데이터 부족으로 인해 일부 기업은 저작권 문제를 고려하지 않고 책, 신문, 블로그 등 다양한 외부 자료를 찾아야 합니다. Khanh Trinh에 따르면, 동의어를 만드는 것도 표절과 저작권 침해를 제한하는 방법 중 하나입니다.

Nam Sinh은 Chat GPT와 같은 애플리케이션의 예를 들었습니다. 사용자가 기존 텍스트 A의 요약을 요청하면 애플리케이션은 요약 텍스트 B를 생성합니다. 그룹의 연구 방법이 통합되어 텍스트 A를 수신하면 애플리케이션은 동의어 생성 메커니즘을 기반으로 동일한 내용의 여러 텍스트 A1, A2, A3을 생성한 후 이를 요약하여 사용자가 선택할 수 있는 여러 결과를 생성합니다.

연구 초기 단계에서 연구팀은 60개 언어에 대한 평가 데이터를 준비하는 데 어려움을 겪었습니다. 충분한 양의 데이터에 접근할 수 없었기 때문에, 연구팀은 베트남어, 영어, 프랑스어, 독일어, 러시아어, 일본어, 중국어, 스페인어, 헝가리어, 포르투갈어, 스웨덴어, 핀란드어, 체코어를 포함한 13개 언어의 다양하고 완전한 데이터 세트를 구축하여 모델을 객관적으로 평가했습니다. 이는 최종 인간 평가 단계에서도 신뢰할 수 있는 데이터 세트입니다.

민 코이(좌)와 칸트린(우)이 2023년 11월 졸업식 날 콴 탄 토 선생님과 기념사진을 찍었다. 사진: 캐릭터 제공

민 코이(좌)와 칸트린(우)이 2023년 11월 졸업식 날 콴 탄 토 선생님과 기념사진을 찍었다. 사진: 캐릭터 제공

영어, 베트남어, 독일어, 프랑스어, 일본어 각각에 대해 연구팀은 200쌍의 문장(한 쌍은 출력 문장과 정답 라벨로 구성)을 무작위로 추출하여 평가했습니다. 위 언어 각각에 대해 연구팀은 5명의 언어 전문가에게 의미 보존, 단어 선택 및 어휘 유사성, 출력 문장의 유창성과 일관성이라는 세 가지 기준을 바탕으로 독립적으로 점수를 매겨 달라고 요청했습니다. 점수는 1점에서 5점까지 계산되었습니다. 그 결과, 이 5개 언어 전문가의 평균 평가 점수는 4.2점에서 4.6점/5점 사이였습니다.

이 예시에서는 4.4/5점을 받은 베트남어 문장 두 개를 보여줍니다. 입력 문장은 "그는 문제를 자세히 설명했습니다."이고 출력 문장은 "그는 문제를 자세히 설명했습니다."입니다.

하지만 품질이 좋지 않고 의미적 오류가 있는 문장 쌍도 있습니다. 예를 들어 "우리는 수프가 뜨거울 때 먹는다 - 우리는 뜨거울 때 수프를 먹는다"라는 문장 쌍은 5점 만점에 2점밖에 받지 못했습니다.

칸찐은 이 프로젝트를 연구하고 완성하는 데 8개월이 걸렸다고 말했습니다. 이는 찐과 코이의 졸업 논문 주제이기도 합니다. 이 논문은 컴퓨터 과학 위원회 2에서 10점 만점에 9.72점으로 1위를 차지했습니다.

Quan Thanh Tho 씨에 따르면, LAMPAT은 여러 언어에 걸쳐 사람과 유사한 동의어 구문을 생성하는 데 능숙함을 보였지만, 다른 언어의 관용구, 민요, 속담을 처리하는 데는 여전히 개선이 필요하다고 합니다.

더욱이, 팀의 평가 데이터 세트에는 13개 언어만 포함되어 있어, 특히 소수 언어와 같은 많은 언어가 여전히 제외되어 있습니다. 따라서 팀은 현재 다국어 통역 모델의 기능을 개선하고 확장하기 위한 연구를 수행해야 합니다. 이를 통해 국가 및 민족 간의 언어 장벽을 제거할 수 있습니다.

2023년 말, 트린과 코이는 각각 3.7점과 3.9/4점의 평균 평점(GPA)으로 컴퓨터 과학 전공에서 우등과 최우등으로 졸업했습니다. 두 사람 모두 해외 유학을 통해 석사 학위를 취득하고 인공지능과 머신러닝 연구를 진행할 계획입니다.

Trinh은 "우리는 LAMPAT을 다가올 과학 프로젝트에 더 많이 적용하고 사용자를 위한 신뢰할 수 있는 다국어 제품을 만드는 목표로 이 주제에 대한 연구를 계속하고 있습니다."라고 밝혔습니다.

르 응우옌


[광고_2]
소스 링크

댓글 (0)

No data
No data
푸토의 '거꾸로 된 그릇' 차밭의 마법 같은 풍경
중부지역 3개 섬, 몰디브에 비유돼 여름철 관광객 유치
밤에 반짝이는 꾸이년 해안 도시 지아라이를 감상하세요
푸토의 계단식 논은 완만한 경사를 이루고 있으며, 심기 전 거울처럼 밝고 아름답습니다.
Z121 공장, 국제 불꽃놀이 마지막 밤 준비 완료
유명 여행 잡지가 손동 동굴을 '세계에서 가장 웅장한 동굴'이라고 칭찬했습니다.
서양 관광객을 끌어들이는 신비로운 동굴, 탄호아의 '퐁냐 동굴'과 비교돼
빈히만의 시적인 아름다움을 발견하세요
하노이에서 가장 비싼 차는 1kg당 1,000만 동이 넘는데, 어떻게 가공하나요?
강 지역의 맛

유산

수치

사업

No videos available

소식

정치 체제

현지의

제품