Vietnam.vn - Nền tảng quảng bá Việt Nam

AI技術を利用する際のメディア従事者の倫理

Báo Quốc TếBáo Quốc Tế27/10/2024

私たちは4.0テクノロジー革命の時代に生きており、人工知能(AI)は社会生活の多くの分野において徐々に不可欠な存在になりつつあります。人々と出来事をつなぐ情報の架け橋として、メディアもこの潮流から外れることは許されません。


Đạo đức của người làm truyền thông khi sử dụng công nghệ AI
AI技術に関するワークショップに出席するベトナムジャーナリスト協会ジャーナリズム研修センター所長、グエン・ティ・ハイ・ヴァン氏。(出典:ベトナムジャーナリスト協会)

AIがもたらすメリットを最大限に活用するためには、情報伝達における信頼性と倫理性を確保しながら、AIを効果的に活用できる知識を身につける必要があります。

AIの「熱」から

AI(人工知能)が今日最も注目されているキーワードの一つであることは明らかです。2024年9月、Google検索で「AI」というキーワードを0.3秒で検索すると、159億件の検索結果が記録されました。一方、「AIツール」というキーワードでは、0.4秒で34億件以上の検索結果が記録されました。これらの膨大な数字は、AIとAIベースのツールに対する世界的な関心の高さを示しています。

現在、メディア業界をはじめ、様々な分野でAIツールが次々と登場しています。広く知られているChatGPT以外にも、特定のタスクに特化したAIアプリケーションが数多く開発されています。例えば、チャットボットタスクグループ向けのBing AI、Clause、Zapier Central、コンテンツ作成タスク向けのJasper、Copy.ai、Anyword、動画制作・編集タスク向けのDescript、Wondershare、Runway、画像作成タスク向けのDALL-E3、Midjourney、Stable Diffusion、音声コンテンツタスク向けのMurf、AIVAなど、ツールを挙げればきりがありません。また、最近では巨大企業Amazonも、「創造性を刺激し、より多くの価値をもたらす」ことを目指し、自社開発のAIツール「Video Generator」と「Image generator」を発表しました。

AI ツールは規模や専門性のレベルが大きく異なりますが、テクノロジーには本質的に 2 つの共通点があります。AI ツールは、AI ツールを「トレーニング」するためのアルゴリズムとデータに基づいて開発されます。

メディアにおけるAI利用の倫理的管理

AIツールがもたらすメリットは計り知れず、技術革新のスピードが速いことから、メディア業界における単純なタスクから複雑なタスクまで、あらゆる分野に特化したAIツールが次々と登場しています。こうした圧倒的な発展に伴い、メディア業界におけるAIツールの開発と利用における倫理的管理の問題について、多くの疑問が生じています。AIツールのアルゴリズムやデータが、コミュニティに害を及ぼすような方法で操作された場合、どうなるのでしょうか?AIツールが学習に使用する入力データの知的財産権は誰が保証するのでしょうか?AIツールがもたらす害の程度を評価するのは誰なのでしょうか?

同じタスクにおいて、AIツールにアクセスできる人とアクセスできない人の間に不平等はあるのでしょうか?特にメディアやソーシャルネットワークなど、多くの人々に大規模な影響を与える可能性のあるデリケートな分野において、AIツールが制御不能な危害をもたらす可能性について疑問が提起されています。

上記の懸念を認識し、多くの組織、協会、政府、さらにはAIツールを開発する企業や法人が、AI技術における倫理的管理の問題に関する勧告、説明、さらには行動規範を発表しています。2021年に193か国で採択された「人工知能の倫理に関する宣言 - 国連教育科学文化機関(UNESCO)勧告」は、「人工知能(AI)の急速な発展は、医療診断の支援からソーシャルメディアを通じた人と人とのつながりの実現、自動化されたタスクによる労働効率の向上まで、世界中で多くの機会を生み出している」と明確に述べています。

しかし、こうした急速な変化は深刻な倫理的懸念も引き起こしています。AIに関連するこうしたリスクは、既存の不平等を悪化させ始めており、既に不利な立場にあるグループにさらなる害をもたらしています…」。そしてそこから、「ユネスコに対し、加盟国を支援するためのツールの開発を要請します。これには、各国政府がすべての国民のために倫理的かつ責任ある形でAIを導入する準備状況を包括的に把握するためのツールである準備状況評価手法が含まれます。」

UNESCOは、世界的な取り組みの一環として、グローバルAI倫理・ガバナンス・オブザーバトリー(AI倫理・ガバナンス・オブザーバトリー)を設立しました。同オブザーバトリーは、「各国がAIを倫理的かつ責任ある形で導入する準備状況に関する情報を提供します。また、AI倫理・ガバナンス・ラボも運営しており、幅広いAI倫理問題に関する貢献、影響力のある研究、ツールキット、そして前向きな実践を結集しています」と述べています。

UNESCOのような国際機関に加え、多くの専門団体も独自の行動規範の策定に取り組んでいます。例えば、世界中から数千人の会員を擁するIABC(国際ビジネスコミュニケーション協会)は、コミュニケーション専門家によるAIの倫理的利用を導く一連の原則を策定しました。これは、IABC倫理規定のAIへの関連性についてIABC会員を導くことを目的としています。これらのガイドラインは、AI技術の発展に伴い、随時更新および補足される可能性があります。この原則には、コミュニケーション専門家が遵守すべき具体的なポイントが数多く含まれています。例えば、以下のような点が挙げられます。

「メディア業界への敬意と信頼を育む、ポジティブで透明性の高い体験を生み出すためには、AIリソースは人間主導で活用されなければなりません。AIツールがもたらす専門的機会とリスクについて常に情報を得ることが重要です。情報を正確、客観的、そして公平に伝えることが重要です。AIツールは多くのエラー、不一致、その他の技術的な問題に直面する可能性があります。そのため、AI生成コンテンツが正確で透明性があり、盗作ではないことを人間が独自に検証する必要があります。」

他者の個人情報および/または機密情報を保護し、許可なくこれらの情報を使用しません。AIの出力は、人間の関与と、AIがサービスを提供するコミュニティへの理解に基づいて評価します。可能な限り偏見を排除し、他者の文化的価値観や信念に配慮します。

第三者による文書、情報、または参考文献が正確であり、必要な帰属表示と検証がなされ、適切なライセンスまたは使用許可を得ていることを確認するために、必要な専門的厳格さをもって、自らの成果物を独立して事実確認および検証しなければなりません。専門的な成果物におけるAIの使用を隠蔽または偽装しようとしてはなりません。AIのオープンソースの性質、および虚偽、誤解を招く、または欺瞞的な情報の記載を含む機密保持に関する問題を認識してください。

AIツールを所有、開発、販売する企業や法人は、AIツールの仕組みを誰よりも深く理解しており、AIツールが動作する基盤となるアルゴリズムや、AIツールの学習に用いるデータについても熟知しています。そのため、これらの企業はAI開発における倫理原則に関する情報も提供する必要があります。実際、この問題に関心を持つ企業も存在します。

Google は、重大な危害リスクがある分野には AI ツールを開発しないことを約束しており、メリットがリスクを大幅に上回り、適切な安全対策を講じた場合にのみ開発を行います。主な目的または展開が、人身傷害を引き起こす、または直接的に人身傷害を助長することである兵器やその他のテクノロジー。国際的に認められた規範に違反する監視目的で情報を収集または使用するテクノロジー。国際法および人権に関する一般に認められた原則に違反する目的を持つテクノロジー。

セキュリティと安全性の面では、Googleは次のように誓約しています。「私たちは、危害のリスクをもたらす意図しない結果を回避するため、堅牢なセキュリティと安全性の対策を継続的に開発・実装していきます。AIシステムは適切な注意力を持つように設計し、AI安全性研究におけるベストプラクティスに従って開発するよう努めます。AI技術の開発と利用には、Googleのプライバシー原則を組み込みます。通知と同意の機会を提供し、プライバシー保護アーキテクチャを推進し、データ利用に関する適切な透明性と管理を提供します。」

Googleと同様に、MicrosoftもAIの原則とアプローチに関する声明を発表し、「私たちは、AIシステムが責任を持って、人々の信頼を確保する方法で開発されることに尽力しています…」と強調しました。さらに、AmazonやOpenAIなど、AIツールの開発に多額の投資を行っている大手テクノロジー企業も、何らかの形で独自のコミットメントを表明しています。

歴史上、テクノロジーにはプラス面とマイナス面という二面性があることは、多くの事例で証明されています。AIは非常に「ハイテク」なテクノロジープラットフォームではあるものの、依然として人間が開発・収集したアルゴリズムとデータに基づいており、同時に、多くのAI製品は、それを所有する企業の事業計画の一部となっています。

したがって、技術面だけでなく、製品開発・管理チームからも常に潜在的なリスクが存在します。ここで問題となるのは、AIツールがコミュニティの社会経済レベルにまで及ぶ、大多数の人々への影響の大きさです。AI技術の利用における倫理的管理へのタイムリーな配慮は、国連などの大規模な国際機関や政府、業界団体、そして何よりも技術開発部門の参加によって、歓迎すべき兆候となっています。

しかし、AIツールのリストが継続的に新しいバージョンをリリースし、それぞれが以前のものよりも洗練され複雑になっているのと同様に、コード、原則、ガイドラインもタイムリーに更新および補足する必要があり、さらに、AIテクノロジー全般、特にメディア従事者における倫理的管理に準拠する能力が最高の効率を達成できるフレームワーク内で、製品開発ユニットとユーザーを防止、制限、および制御するために積極的に取り組む必要があります。


[広告2]
ソース

コメント (0)

No data
No data

同じトピック

同じカテゴリー

DIFF 2025 - ダナンの夏の観光シーズンを爆発的に促進
太陽を追う
トゥランの雄大な洞窟アーチ
ハノイから300km離れた高原には雲海や滝があり、観光客で賑わっています。

同じ著者

遺産

人物

企業

No videos available

ニュース

政治体制

地方

商品