기술 대기업 OpenAI는 자사의 음성-텍스트 변환 도구인 위스퍼(Whisper)를 "인간과 같은 정확성과 견고성"을 갖춘 AI라고 홍보했습니다. 하지만 위스퍼에는 한 가지 큰 단점이 있습니다. 완전히 허위의 텍스트와 문장을 생성한다는 것입니다.
AI가 생성한 텍스트 중 일부(환각이라고 함)에는 인종적 언급, 폭력적인 언어, 심지어 상상의 의료 치료까지 포함될 수 있습니다. 사진: AP
AP에 따르면, AI가 생성한 텍스트 중 일부는 "환각적"이라고 불리는 비현실적인 텍스트이며, 인종적 논평, 폭력적인 언어, 심지어 상상의 의료 치료법까지 포함되어 있습니다.
AI가 생성한 텍스트의 높은 "환상" 비율
전문가들은 Whisper가 전 세계 여러 산업에서 인터뷰 번역 및 필사, 인기 있는 소비자 기술에 대한 텍스트 생성, 비디오 자막 생성 등에 널리 사용되고 있기 때문에 특히 우려하고 있습니다.
더욱 우려스러운 점은 많은 의료 센터에서 의사와 환자 간의 상담을 전송하기 위해 Whisper를 사용하고 있다는 점인데, OpenAI는 이 도구를 "고위험" 지역에서 사용해서는 안 된다고 경고했습니다.
문제의 전체적인 범위를 파악하기는 어렵지만, 연구자와 엔지니어들은 업무 과정에서 정기적으로 위스퍼 "환각"을 경험한다고 말합니다.
미시간 대학교의 한 연구원은 자신이 분석한 오디오 녹취록 10개 중 8개에서 "환각"을 발견했다고 밝혔습니다. 한 컴퓨터 엔지니어는 자신이 분석한 100시간 이상의 오디오 녹취록 중 약 절반에서 "환각"을 발견했습니다. 또 다른 개발자는 위스퍼를 사용하여 만든 2만 6천 개의 녹음 파일 거의 전부에서 "환각"을 발견했다고 밝혔습니다.
짧고 명확하게 녹음된 오디오 샘플에서도 이 문제는 여전히 존재합니다. 컴퓨터 과학자 들의 최근 연구에 따르면, 13,000개 이상의 명확한 오디오 클립에서 187개의 "착시 현상"이 발견되었습니다. 연구원들은 이러한 추세가 수백만 개의 녹음 파일에서 수만 개의 잘못된 필사본으로 이어질 것이라고 밝혔습니다.
작년까지 바이든 행정부에서 백악관 과학기술국장을 지낸 알론드라 넬슨에 따르면, 이러한 오류는 특히 병원 환경에서 "매우 심각한 결과"를 초래할 수 있습니다.
"아무도 오진을 원하지 않습니다." 현재 뉴저지주 프린스턴 고등연구소 교수인 넬슨은 말했다. "더 높은 기준이 필요합니다."
위스퍼는 청각 장애인과 난청인을 위한 자막 제작에도 사용되는데, 이들은 특히 오역의 위험이 높습니다. 갈로뎃 대학교 기술 접근성 프로그램 책임자이자 청각 장애인인 크리스찬 보글러는 청각 장애인들이 "다른 모든 텍스트에 숨겨진" 조작된 문구를 식별할 방법이 없기 때문이라고 말합니다.
OpenAI는 문제를 해결하기 위해 요청되었습니다.
이러한 "환각"이 만연함에 따라 전문가, 옹호자, 그리고 전 OpenAI 직원들은 연방 정부에 AI 규제를 검토할 것을 촉구했습니다. OpenAI는 최소한 이러한 결함을 해결해야 합니다.
"회사가 이 문제를 우선순위로 삼으려 한다면 이 문제는 해결될 수 있다"고 2월에 회사의 방향에 대한 우려로 OpenAI를 떠난 샌프란시스코의 연구 엔지니어 윌리엄 손더스는 말했다.
OpenAI 대변인은 "이 기능을 출시했는데 사람들이 그 기능에 너무 자신감을 갖고 다른 시스템에 통합한다면 문제가 될 수 있습니다."라고 말했습니다. OpenAI는 이러한 "착각"을 완화할 방법을 끊임없이 연구하고 있으며 연구자들의 연구 결과를 소중하게 여기고, 모델 업데이트에 피드백을 반영한다고 덧붙였습니다.
대부분 개발자는 텍스트 음성 변환 엔진이 오타나 다른 실수를 할 수 있다고 생각하지만, 엔지니어와 연구자들은 Whisper만큼 "환각"을 일으키는 AI 기반 텍스트 음성 변환 엔진을 본 적이 없다고 말합니다.
[광고_2]
출처: https://tuoitre.vn/cong-cu-ai-chuyen-loi-noi-thanh-van-ban-cua-openai-bi-phat-hien-bia-chuyen-20241031144507089.htm
댓글 (0)