이 문제를 더 잘 이해하기 위해 저널리스트 & 여론 신문의 기자들은 커뮤니케이션과 소셜 네트워크 분야 전문가이자 VTVcab 프로그램 제작 센터의 부소장인 응우옌 카오 꾸엉 저널리스트와 대화를 나누었습니다.
AI 제품은 사용 시 라벨을 부착해야 합니다.
+ 선생님, 최근 OpenAI의 ChatGPT와 유사한 Sora라는 애플리케이션이 텍스트에서 비디오를 생성할 수 있는데, 현재 AI 기술의 발전에 대해 어떻게 생각하시나요?
- 미디어 분야에 적용된 AI 기술은 눈부신 발전을 이루었습니다. 이전에는 AI를 주로 정적인 이미지나 단순한 이미지를 제작하는 데 사용했지만, 이제는 비디오 제작에도 활용되고 있습니다. OpenAI의 Sora 애플리케이션은 텍스트를 최대 1분 미만의 짧은 비디오로 변환하는 기능을 제공합니다. Sora는 생생한 이미지, 부드러운 움직임, 사실적인 느낌을 주는 정교한 배경을 갖춘 비디오를 제작합니다. 이는 기술 기업, 미디어 전문 기업, 심지어 언론사까지도 클립 형태의 움직이는 이미지를 활용하여 미디어 제품을 홍보할 수 있는 좋은 기회를 제공합니다.
기자 응우옌 카오 꾸엉(Nguyen Cao Cuong) - VTVcab 프로그램 제작 센터 부소장이 미디어 교육 세션에 참석한 모습입니다.
그러나 모든 AI 제품의 사용은 여전히 모든 당사자에 의해 신중하게 이루어지고 있으며, 많은 국가에서는 저널리즘 분야에서 AI 사용에 대한 명확한 법적 근거를 마련하기 위해 관련 규정 제정을 고려하고 있습니다. 언론 종사자들에게는 매우 유용하고 유용한 도구이지만, 특히 저널리즘 분야에서는 어떻게 적용할지 신중하게 고려해야 합니다. 저널리즘 분야 자체는 객관적 진실을 존중하는 측면이 있습니다. 반면, 우리가 사용하는 인공지능 제품은 기계가 만든 결과물이자 합성물일 뿐이므로, 그 결과물은 단지 예시일 뿐입니다.
+ 기회에는 항상 위험이 따릅니다. AI 애플리케이션이 발전할수록 위험도 커집니다. 이 말에 대해 어떻게 생각하시나요?
- 기술이 발전함에 따라 AI가 실제 사람처럼 보이는 수많은 가짜 사물을 만들어낼 수 있다는 위험이 있습니다. 사람의 이미지는 네트워크 환경에서 실제 사람처럼 보이는 활동을 합니다. 이는 과거에 우리가 알고 있던 정보 보안 문제를 야기하는데, 딥페이크가 온라인 사기를 저지르기 위해 이미지와 음성을 위조하는 상황은 실제로 매우 흔합니다. 딥페이크와 AI의 단점은 우리 스스로의 우려를 불러일으키며, 점차 사람들은 AI가 만든 이미지를 믿지 않게 될 것입니다.
현재 언론사나 국가 관리 기관에는 AI 분야 관련 규정이 없습니다. 따라서 언론사는 이 기술을 사용할 때, 어느 정도 AI 제품에 라벨을 부착해야 합니다. 이는 대중에게 이러한 제품이 인간이 만든 것이 아니라 인공지능의 산물임을 알리기 위한 것입니다. 동시에, 이러한 이미지는 실제 이미지가 아니라 예시 이미지임을 강조하여 대중의 오해를 방지해야 합니다.
저널리스트 응우옌 카오 꾸옹이 학생들에게 미디어 제품 제작 실습을 지도하고 있습니다.
저널리즘에서 AI를 활용할 때는 극도의 주의와 재치가 필요합니다.
+ 가까운 미래에 언론사는 AI가 가져다주는 이점을 어떻게 활용할 수 있을까요?
- 언론사는 AI가 생성한 일러스트를 사용하는데, 이는 그래픽, 광고, 소개 또는 설명용 사진 등 다양한 형태로 제공되므로 절대적인 정확성 요건이 높지 않아 사용이 가능합니다. 하지만 탐사 기사, 보도 기사, 또는 일반 뉴스 기사의 경우, AI 이미지를 사용하는 것은 절대 허용되지 않습니다. 대중이 실제 이미지와 AI가 생성한 이미지를 혼동할 수 있기 때문입니다.
따라서 저널리즘 분야에서 AI를 활용할 때는 매우 신중하고 능숙해야 합니다. 만약 미디어 기업, 즉 기업 광고, 판매, 고객 안내 등 미디어 제품 제작을 전문으로 하는 부서의 제품이라면 AI 적용은 충분히 가능합니다. AI는 매력적이고 창의적인 일러스트레이션 이미지를 빠르게 제작하는 데에만 사용될 수 있습니다. 미디어 작업의 목적에 따라 AI의 명칭이 붙을 수도 있고 그렇지 않을 수도 있습니다. 하지만 저는 AI가 새로운 현상이며, 마땅히 명칭이 붙어야 한다고 생각합니다.
예를 들어, 수십 년 또는 수백 년 전에 일어난 사건에 대한 그림을 그리는 도구는 AI를 활용하여 지원할 수 있습니다. 하지만 그 도구가 그리는 내용은 기자의 지식에 크게 좌우됩니다. 기자는 AI에게 전달하기 위해 그 해의 사건뿐만 아니라 AI에 전송된 텍스트와 명령까지 이해해야 합니다. 예를 들어, 기자가 AI를 사용하여 쩐 왕조 시대 사람들이 등장하는 전쟁 장면을 담은 그림을 재현한다고 가정해 보겠습니다. 하지만 기자가 쩐 왕조 병사들의 모습, 그들의 복식과 무기에 대한 지식이 부족하다면, 다른 시대와 혼동하기 쉽습니다.
OpenAI의 Sora는 복잡한 장면, 카메라 움직임, 그리고 감정이 풍부한 여러 캐릭터를 포함하여 최대 1분 길이의 비디오를 생성합니다. Sora 앱으로 생성된 클립의 스크린샷입니다.
+ 어떤 저널리즘 작품이 AI에 의해 제작되었거나, 대부분 AI에 의해 제작되었다면, 그것이 고품질 저널리즘으로 평가받거나 저널리즘 상에 출품된다면 법적으로 어떻게 판단할 것인가요?
- 현재 정보통신부나 베트남기자협회 의 저널리즘 작품 내 AI 활용 규정에는 구체적인 지침이나 규정이 없습니다. 하지만 어떤 부분이나 섹션에서 AI를 사용하는 언론사는 이를 명확하게 표시해야 합니다. 공모전 출품 여부와 관계없이 대중에게 공개되는 작품인 만큼 기자들은 매우 신중해야 하며, 특히 광범위하고 포괄적인 지식을 바탕으로 명확하게 구분해야 합니다. AI가 결과물을 만들어낼 때 혼란을 최소화하기 위해 정확한 입력 정보를 제공해야 합니다. AI가 결과물을 만들어낸 후에는 다시 한번 확인해야 하며, 기자들은 이제 편집자의 사고방식을 갖춰 표준에 부합하는지 확인해야 합니다. AI가 등장한 초기에는 입력 데이터가 부족하고 혼란이 발생할 가능성이 매우 높기 때문에 이 부분에 더욱 주의를 기울여야 합니다.
OpenAI는 방금 문자 명령으로 사실적인 비디오를 생성할 수 있는 AI 애플리케이션인 Sora를 공개했습니다.
+ 귀하의 의견으로는, 언론사는 특히 새로 출시된 AI 기능을 활용하기 위해 기자와 언론인에 대한 교육과 개발을 늘려야 한다고 생각하십니까?
- 물론입니다. AI 영상 콘텐츠, 세로형 영상, 오디오 또는 텍스트 콘텐츠 제작, 사진 등… 저희는 항상 독자와 독자의 관심을 끌고자 하는 저널리스트이기 때문에 새로운 지식을 업데이트해야 합니다. 가장 중요한 것은 도구를 어떻게 활용하는지, 편집, 교정, 검증에 얼마나 능숙한지입니다. 전문 분야에 대한 저널리스트들의 이해도는 충분한가요? 간단히 말해, 모든 기자, 저널리스트, 편집자는 다음 사항에 유의해야 합니다. AI 도구에 쉽게 접근할 수 있을수록 실수할 가능성이 높아집니다.
저널리즘이나 텔레비전 작품에서는 내용과 이미지가 당시의 맥락과 비교했을 때 사건에 대한 논리, 진정성, 그리고 정확성을 만들어낸다면 얼마든지 사용할 수 있습니다. 이는 중요합니다. AI가 제작한 저널리즘 결과물이 잘 관리되고, 진정성이 있으며, 적절하다면 아무런 문제가 없을 것이라고 생각합니다. 역사적 재구성을 담은 사진, 그림, 영상의 경우, 사용할 수는 있지만, 대중이 맥락을 알 수 있도록 라벨을 붙일 수 있습니다. 재구성된 이미지가 AI에 의해 어느 시대에, 어느 시간에, 어떤 내용으로 만들어졌는지...
+ 여전히 법적, 안전적 문제가 있기 때문에, 언론사가 소셜 네트워크 플랫폼에만 게시하는 보도자료를 만들기 위해 AI 제품을 사용해야 할까요?
- 소셜 미디어 플랫폼에 업로드하기 위해 AI 제품을 만드는 데 너무 많은 노력이 든다면, 다시 생각해 봐야 한다고 생각합니다. 만약 너무 많은 노력이 필요하다면, 그 제품들은 언론사 자체 웹사이트에 올려야 합니다. 페이스북, 틱톡, 유튜브 같은 플랫폼은 여전히 서드파티 플랫폼이며, 이러한 채널을 통해서도 수익을 창출할 수 있습니다. 하지만 장기적인 전략은 여전히 우리가 소유한 채널을 발전시키는 것이어야 합니다. 따라서 가장 가치 있고 노력이 많이 드는 콘텐츠는 소유주의 공식 채널에 올려야 합니다.
+ 정말 감사합니다!
르탐 (공연)
[광고_2]
원천
댓글 (0)